
Activistas de la privacidad presentaron una queja por la información errónea del chatbot de Open AI
La organización sin ánimo de lucro con sede en Viena Noyb, abreviatura de “none of your business”, presentó una queja sobre protección de datos ante el organismo de control de datos de Austria. Lo acusan de violar el Reglamento General de Protección de Datos (RGPD) de Europa.
La denuncia afirma que de OpenAI ChatGPT tiene información incorrecta que arroja su chatbot como cierta, y que además “alucina” regularmente sobre las personas. La ONG afirmó que “inventarse datos sobre las personas no es una opción” y dice que OpenAI se niega a corregir las informaciones.
Esto, además de representar un desafío para los programadores de AI; es una alerta para empresas y empleados que incorporan OpenAI como herramienta de trabajo. Siempre se recomienda checar dos veces los resultados, ya que no es infalible. Por ejemplo, puede atribuir una cita a un escritor erróneo o entregar datos sobre personas que han estado en Google, pero sin orden y con información imprecisa.
Al requerimiento, según la ONG, OpenAI explicó que no hay forma de evitar que sus sistemas muestren la información falsa.
La app ofrece bloquear o filtrar los resultados basados en preguntas como el nombre de la figura, con lo que se apoya, en gran parte, en correcciones de los usuarios.
También acusó a OpenAI de no checar sus fuentes o bibliografía, una obligación legal que la abogada de noyb Maartje de Graaf dijo que “se aplica a todas las empresas”, añadiendo que es “claramente posible” hacer un seguimiento de las fuentes de información cuando se entrena un sistema de IA.
“Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, las consecuencias pueden ser graves”, afirmó de Graaf en un comunicado. “Está claro que las empresas son actualmente incapaces de hacer que chatbots como ChatGPT cumplan la legislación de la UE, cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología tiene que seguir los requisitos legales, no al revés”.
Las llamadas alucinaciones, en las que el sistema de IA produce un resultado engañoso o falso en una consulta pero lo presenta como si fuera cierto, son un frente abierto de juicios, ya que más de una vez atribuye hechos sobre personalidades que no son ciertos, o realiza mal cálculos. Porque se alimenta de Internet, donde la IA no alcanza a distinguir con exactitud las informaciones verdaderas o falsas.
Para evitar cometer errores en tu trabajo o tu empresa:
Ten en cuenta que las AI son relativamente nuevas y se alimentan de Internet, o de Google
No des por sentado la información que recibes.
Si le pides ayudar para un listado o para cosas simples, lo debes checar
Si necesitas realizar cuentas complejas, balances o estadísticas, acude a otras herramientas porque puede confundirse y por ahora carece de sentido común
Las tareas que puedes encomendarle son simples, como organizar cronogramas de trabajo o agendas