Activistas de la privacidad presentaron una queja por la información errónea del chatbot de Open AI

La organización sin ánimo de lucro con sede en Viena Noyb, abreviatura de “none of your business”, presentó una queja sobre protección de datos ante el organismo de control de datos de Austria. Lo acusan de violar el Reglamento General de Protección de Datos (RGPD) de Europa.

La denuncia afirma que de OpenAI  ChatGPT tiene información incorrecta que arroja su chatbot  como cierta, y que además “alucina” regularmente sobre las personas. La ONG afirmó que “inventarse datos sobre las personas no es una opción” y dice que OpenAI se niega a corregir las informaciones.

Esto, además de representar un desafío para los programadores de AI; es una alerta para empresas y empleados que incorporan OpenAI como herramienta de trabajo. Siempre se recomienda checar dos veces los resultados, ya que no es infalible. Por ejemplo, puede atribuir una cita a un escritor erróneo o entregar datos sobre personas que han estado en Google, pero sin orden y con información imprecisa.

Al requerimiento, según la ONG, OpenAI explicó que no hay forma de evitar que sus sistemas muestren la información falsa.

La app ofrece bloquear o filtrar los resultados basados en preguntas como el nombre de la figura, con lo que se apoya, en gran parte, en correcciones de los usuarios.

También acusó a OpenAI de no checar sus fuentes o bibliografía, una obligación legal que la abogada de noyb Maartje de Graaf dijo que “se aplica a todas las empresas”, añadiendo que es “claramente posible” hacer un seguimiento de las fuentes de información cuando se entrena un sistema de IA.

“Inventar información falsa es bastante problemático en sí mismo. Pero cuando se trata de información falsa sobre personas, las consecuencias pueden ser graves”, afirmó de Graaf en un comunicado. “Está claro que las empresas son actualmente incapaces de hacer que chatbots como ChatGPT cumplan la legislación de la UE, cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no puede utilizarse para generar datos sobre individuos. La tecnología tiene que seguir los requisitos legales, no al revés”.

Las llamadas alucinaciones, en las que el sistema de IA produce un resultado engañoso o falso en una consulta pero lo presenta como si fuera cierto, son un frente abierto de juicios, ya que más de una vez atribuye hechos sobre personalidades que no son ciertos, o realiza mal cálculos. Porque se alimenta de Internet, donde la IA no alcanza a distinguir con exactitud las informaciones verdaderas o falsas.

Para evitar cometer errores en tu trabajo o tu empresa:

Ten en cuenta que las AI son relativamente nuevas y se alimentan de Internet, o de Google

No des por sentado la información que recibes.

Si le pides ayudar para un listado o para cosas simples, lo debes checar

Si necesitas realizar cuentas complejas, balances o estadísticas, acude a otras herramientas porque puede confundirse y por ahora carece de sentido común

Las tareas que puedes encomendarle son simples, como organizar cronogramas de trabajo o agendas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Skip to content