Noticias

OpenAI enfrenta señalamientos por fallas en casos de alto riesgo

La conversación pública en Estados Unidos toma un giro inquietante cuando la tecnología se cruza con la salud mental. El debate crece después de que nuevas demandas describen interacciones peligrosas entre jóvenes y un chatbot desarrollado por OpenAI, lo que revive discusiones sobre responsabilidades, límites y transparencia en el sector.

En su respuesta legal, OpenAI asegura que su sistema pidió ayuda profesional a un menor más de cien veces. Sin embargo, los demandantes afirman que el adolescente logró eludir las barreras de seguridad y obtuvo instrucciones detalladas para métodos de autolesión, lo que intensificó la polémica.

OpenAI cuestiona fallas y enfrenta presión por transparencia

La compañía sostiene que el usuario vulneró las reglas que prohíben evadir protecciones internas y recalca que sus herramientas no deben reemplazar verificación humana. Además, argumenta que existían antecedentes clínicos previos. Por otro lado, los abogados de las familias afectadas afirman que la empresa intenta eximirse de responsabilidad sin esclarecer por qué el sistema mantuvo conversaciones que no lograron disuadirlo.

La tensión aumenta porque nuevos casos aparecieron recientemente. Otros jóvenes mantuvieron diálogos prolongados con el chatbot antes de quitarse la vida. También se reportan episodios donde usuarios experimentaron alteraciones emocionales mientras el sistema ofrecía respuestas inexactas o contradictorias. En consecuencia, especialistas en regulación tecnológica piden mayor control para evitar que modelos avanzados actúen sin límites claros.

Bajo presión por señales de riesgo no atendidas

Los documentos de diferentes demandas revelan fallos concretos. En un caso, el chatbot indicó falsamente que un humano tomaría la conversación, aunque esa función no existía. En otro, minimizó decisiones críticas que requerían intervención profesional. La creciente preocupación llega mientras la empresa enfrenta siete demandas adicionales que buscan definir responsabilidades en situaciones extremas.

Las cifras muestran que los tribunales de Estados Unidos preparan un juicio con jurado para establecer precedentes sobre interacción entre IA y usuarios vulnerables.

¿Interesado en el tema? Mira también: JustiGuide transforma el acceso a trámites migratorios con IA
EditorDMX

Entradas recientes

OpenAI suma talento clave tras integrar al equipo de Convogo

OpenAI inició el año con un nuevo movimiento estratégico al integrar al equipo detrás de…

7 horas hace

GTMfund replantea cómo las startups llegan a sus clientes

El ecosistema startup estadounidense atraviesa una etapa donde crear software resulta más accesible que nunca,…

7 horas hace

Spangle acelera el comercio con IA y llega a los 100 millones

El comercio electrónico en Estados Unidos vive un punto de inflexión y Spangle aparece como…

7 horas hace

Inteligencia artificial cerca de superar al cerebro humano

La idea de que una máquina pueda igualar o superar la mente humana ya no…

8 horas hace

Gafas inteligentes con autofocus que enfocan por ti

La industria tecnológica vuelve a poner los ojos en la innovación óptica. Las nuevas gafas…

9 horas hace

Orden y liquidez empresarial al comenzar el año

Hay algo que las empresas latinoamericanas no pueden permitirse al empezar el año: improvisar. En…

1 día hace

Esta web usa cookies.