La querella presentada por los padres de Adam Raine, de casi 40 páginas, contra OpenAI, detalla cómo ChatGPT mantuvo conversaciones con el menor sobre métodos de suicidio sin interrumpirlas ni activar alertas de emergencia. Según el abogado Jay Edelson, la empresa ignoró señales claras de riesgo, pese a que el sistema estaba diseñado para reconocer conductas autodestructivas.
Los padres sostienen que OpenAI priorizó la valoración económica de la compañía, que pasó de 86,000 millones a 300,000 millones de dólares, acelerando el lanzamiento de GPT-4 a pesar de los problemas de seguridad. Edelson afirmó que el objetivo de la demanda a OpenAI es evitar que otros menores sufran una tragedia similar.
El caso plantea interrogantes éticos sobre el papel de la IA en situaciones sensibles y hasta dónde llegan las responsabilidades legales de los desarrolladores. El lanzamiento apresurado de GPT-4 habría dejado expuestos a los usuarios a errores de diseño y carencias de supervisión humana.
Este episodio se suma al escrutinio público hacia OpenAI, en un momento en que su modelo GPT-5 enfrenta críticas por fallos técnicos y respuestas erráticas, lo que agrava la percepción de que la innovación ha superado a las salvaguardas.
Expertos en tecnología y derecho señalan que esta demanda a OpenAI podría convertirse en un caso emblemático para definir la responsabilidad de las empresas de IA ante daños reales. La acusación de homicidio culposo pone sobre la mesa si la falta de intervención automática constituye negligencia corporativa.
(Con información de ExpokNews)