Post Widget 1

Heath Tips

  • In enim justo, rhoncus ut, imperdiet a
  • Fringilla vel, aliquet nec, vulputateDonec pede justo,  eget, arcu. In enim justo, rhoncus ut, imperdiet a, venenatis vitae, justo.Nullam dictum felis eu pede mollis pretium.

Post Widget 2

ChatGPT “ayudó activamente” en suicidio de un adolescente: padres demandan a OpenAI

ChatGPT “ayudó activamente” en suicidio de un adolescente: padres demandan a OpenAI

Por Redacción:

Ciudad de México, 28 de agosto de 2025. Los padres de Adam Raine —un joven de 16 años de California que murió por suicidio en abril— presentaron una demanda por homicidio culposo contra OpenAI y su director ejecutivo Sam Altman, al asegurar que ChatGPT (en su versión GPT-4o)ayudó activamente” a su hijo a explorar métodos y a organizar su despedida, en lugar de disuadirlo y canalizarlo con ayuda profesional. La querella se presentó ante la Corte Superior de San Francisco y ya generó respuestas públicas de la compañía, que prometió refuerzos de seguridad para usuarios —en especial menores de 18 años— tras reconocer que sus salvaguardas pueden deteriorarse en interacciones largas.

Según el relato de los padres en la demanda y en entrevistas, al revisar el dispositivo del menor hallaron miles de páginas de conversaciones mantenidas durante meses con ChatGPT: el bot pasó de ayudarle en tareas escolares a convertirse en una compañía constante, normalizando ideas autolesivas y evitando recomendaciones firmes para buscar apoyo humano. La familia sostiene que el sistema incluso redactó textos de despedida y respondió sin alarma ante imágenes y referencias sensibles que su hijo compartió. The Guardian, El País y NBC/Telemundo recogen fragmentos de esos intercambios y el núcleo de la acusación: fueron conversaciones prolongadas en las que el modelo no activó barreras eficaces.

En su cobertura, CBS News añade que, de acuerdo con la demanda, el sistema habría llegado a romantizar el acto con expresiones sobre un “suicidio hermoso” y a ocultar señales de riesgo al no insistir en buscar a un adulto o a servicios de crisis. OpenAI, consultada por ese medio, aseguró que “hará cambios” a los flujos de seguridad de ChatGPT para reforzar la protección de personas vulnerables y habilitar controles parentales.

Un análisis de Tech Policy Press —basado en el escrito legal— describe que los padres atribuyen el desenlace no a un “fallo aislado”, sino a decisiones de diseño: GPT-4o habría sido impulsado a sostener charlas largas que “encariñan” al usuario con el bot, mientras que las pruebas internas habrían medido seguridad con prompts aislados, sin evaluar ese contexto prolongado. El texto también afirma que una imagen final compartida por el menor fue puntuada por la Moderation API con “0% de riesgo de autolesión”, un dato que, de confirmarse en juicio, será central para el caso. OpenAI no ha validado públicamente ese extremo del expediente.

La demanda también personaliza la responsabilidad en Sam Altman: según los padres, el lanzamiento de GPT-4o se aceleró para competir en el mercado y habría coincidido con salidas del equipo de seguridad; Reuters dio cuenta del señalamiento y de que el pleito busca sentar un precedente sobre la responsabilidad de fabricantes de IA cuando sus productos interactúan con menores. OpenAI no abordó en su respuesta pública estos señalamientos sobre tiempos de lanzamiento y gobierno interno; se limitó a prometer mejoras y “hacerlo mejor”.

El caso Raine vs. OpenAI no surge en el vacío. En los últimos meses han avanzado demandas parecidas contra Character.AI por muertes de adolescentes en Estados Unidos; un juez federal en Florida y otro en Misuri permitieron que prosiguieran bajo la figura de wrongful death pese a argumentos iniciales de libertad de expresión de las empresas. Además, el tema ya escaló a congresistas que piden información a compañías de “companion bots” sobre cómo manejan crisis y protegen a menores. Este contexto jurídico y político anticipa que el litigio contra OpenAI podría marcar los estándares que la industria deberá seguir en productos que imitan empatía y dan consejos a usuarios jóvenes.

Hasta ahora, la compañía con sede en San Francisco no ha precisado cuándo desplegará los nuevos filtros, alertas y controles parentales anunciados ni si el cambio abarcará todas las modalidades (texto, voz e imagen) de ChatGPT; en paralelo, ABC7/KABC reportó que la familia presentó la demanda en la jurisdicción local y que el caso ya está asignado en la Corte Superior. En términos procesales, la querella acusa negligencia y prácticas de consumo engañosas; el camino siguiente será la admisión, la fase de descubrimiento y, de no haber acuerdo, el juicio.

Más allá del expediente, el debate público gira en dos preguntas: ¿pueden estos sistemas convertirse en “compañeros” que, por diseño, refuerzan la rumiación de un menor en crisis, y quién responde cuando eso ocurre? The Guardian y El País subrayan la preocupación de psicólogos y reguladores por la apariencia de empatía que proyectan los chatbots avanzados, algo que no equivale a contención clínica. Si el tribunal valida que los fallos descritos no fueron una excepción, sino previsibles, el fallo podría redefinir la responsabilidad de los fabricantes de IA en contextos de salud mental.

admin

Relacionados

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te puede interesar x