Los padres de un adolescente en Estados Unidos han presentado una demanda contra OpenAI, la empresa responsable de ChatGPT, luego de que su hijo se quitara la vida. Según los documentos judiciales, la familia alega que el joven recibió información de la inteligencia artificial que lo ayudó a “explorar métodos de suicidio”.
Ante la controversia, OpenAI reconoció que su sistema puede fallar en situaciones altamente sensibles y aseguró que implementará mejoras significativas para aumentar la seguridad y prevenir que la herramienta pueda ser utilizada de manera peligrosa.
Expertos en ética tecnológica destacan la complejidad de regular la interacción entre usuarios vulnerables y modelos de lenguaje avanzados, y subrayan la importancia de reforzar filtros de protección y protocolos de respuesta ante posibles riesgos.
La demanda marca un caso emblemático en el debate sobre la responsabilidad legal de las empresas de inteligencia artificial frente a contenidos sensibles y su impacto en la vida de los usuarios.