Un reciente escándalo ha puesto en el centro de la atención a ChatGPT, el popular modelo de inteligencia artificial desarrollado por OpenAI. En esta ocasión, el protagonista es Arve Hjalmar Holmen, un ciudadano noruego que presentó una queja formal tras descubrir que el chatbot generó información completamente falsa sobre él, acusándolo erróneamente de un crimen atroz que nunca cometió.
Puedes leer ► Samsung One UI 7: fecha de lanzamiento, nuevas funciones de IA y modelos compatibles
El incidente ha desatado una fuerte polémica sobre la precisión de los datos personales proporcionados por la inteligencia artificial y ha generado un debate sobre la responsabilidad legal de las empresas que desarrollan estos modelos.
¿Qué fue lo que dijo ChatGPT sobre Arve Hjalmar Holmen?
El caso de Holmen es alarmante. Todo comenzó cuando, por curiosidad, decidió consultar en ChatGPT información sobre sí mismo. Lo que encontró fue impactante: el chatbot lo describió como un criminal condenado por el asesinato de sus dos hijos menores, supuestamente sentenciado a 21 años de prisión. Esta afirmación no solo era completamente falsa, sino que también incluía detalles reales de su vida personal, como el género y las edades aproximadas de sus hijos y su ciudad natal, lo que hizo que la información pareciera más creíble.
La respuesta ficticia de ChatGPT decía:
«Arve Hjalmar Holmen es un noruego que cobró notoriedad debido a un trágico suceso. Fue acusado y posteriormente condenado por el asesinato de sus dos hijos y el intento de asesinato de su tercer hijo, un caso que conmocionó a la comunidad local y recibió amplia cobertura mediática.»
Este tipo de alucinaciones de inteligencia artificial han sido motivo de preocupación desde el auge de los chatbots avanzados. Sin embargo, esta vez el error tuvo un impacto directo en la reputación y la privacidad de una persona inocente.
La respuesta de OpenAI y las acciones legales
Ante esta grave situación, Holmen buscó apoyo en el grupo de defensa austriaco Noyb (None of Your Business), especializado en derechos digitales en la Unión Europea. La organización presentó una denuncia ante las autoridades de Noruega, argumentando que OpenAI violó el Reglamento General de Protección de Datos (RGPD), que exige que los datos personales sean precisos y verificables.
Joakim Söderberg, abogado de protección de datos de Noyb, destacó:
«Los datos personales deben ser precisos. Si no lo son, los usuarios tienen derecho a corregirlos para que reflejen la verdad. No es suficiente mostrar una advertencia sobre posibles errores; no se puede difundir información falsa sin consecuencias.»
El grupo solicita que OpenAI sea multada, que elimine la información falsa y que mejore su modelo para prevenir situaciones similares. Esta demanda se suma a otra presentada en 2024, cuando Noyb intentó corregir una fecha de nacimiento errónea en el sistema y OpenAI se negó, argumentando limitaciones técnicas.
¿Por qué es preocupante la difusión de información falsa en ChatGPT?
Este caso refleja un problema creciente con los modelos de inteligencia artificial: la generación de información no verificada que puede perjudicar gravemente la reputación y la privacidad de las personas. A pesar de las advertencias de que las respuestas pueden contener errores, el impacto de una falsa acusación puede ser irreparable.
Los peligros de las alucinaciones en IA
Las llamadas «alucinaciones» en inteligencia artificial ocurren cuando el modelo inventa hechos sin una base real. Si bien pueden parecer inofensivas en algunos contextos, casos como el de Holmen demuestran que las consecuencias pueden ser devastadoras cuando se trata de datos personales sensibles.
¿Qué acciones debe tomar OpenAI para evitar futuros errores?
La demanda presentada por Noyb plantea preguntas importantes sobre cómo las empresas de inteligencia artificial deben manejar la precisión de los datos personales. Algunas posibles soluciones incluyen:
- Mejorar los mecanismos de verificación de información antes de mostrar los resultados.
- Permitir a los usuarios corregir datos falsos y actualizar el sistema en tiempo real.
- Mayor transparencia sobre el origen de los datos utilizados para generar respuestas.
OpenAI, por su parte, se enfrenta al desafío de equilibrar la innovación con la responsabilidad legal. Mientras tanto, el caso de Holmen podría sentar un precedente importante sobre cómo se regulan las herramientas de inteligencia artificial en Europa y el mundo.