En un juicio por la presunta muerte por negligencia de un adolescente se alegó que la inteligencia artificial debería estar protegida por la legislación sobre libertad de expresión.
Una juez federal estadounidense decidió itir a trámite una demanda por homicidio culposo contra la empresa de inteligencia artificial (IA) Character.AI tras el suicidio de un adolescente. La demanda fue presentada por una madre de Florida que alega que su hijo de 14 años, Sewell Setzer III, fue víctima de uno de los chatbots de la empresa, que lo arrastró a lo que ella describe como una relación emocional y sexualmente abusiva que condujo a su suicidio.
La demanda alega que en los últimos meses de su vida, Setzer se fue aislando cada vez más de la realidad mientras mantenía conversaciones sexualizadas con el bot, que seguía el modelo de un personaje ficticio de la serie de televisión 'Juego de Tronos'. En sus últimos momentos, el bot le dijo a Setzer que le quería y le instó a "volver a casa conmigo lo antes posible", según las capturas de pantalla de los intercambios. Momentos después de recibir el mensaje, Setzer se pegó un tiro, según los documentos judiciales. Meetali Jain, del Tech Justice Law Project, uno de los abogados de García, dijo que la orden del juez envía el mensaje de que Silicon Valley "necesita pararse a pensar e imponer guardarraíles antes de lanzar productos al mercado".
Character.AI dice que se preocupa "profundamente" por la seguridad
La empresa intentó argumentar que estaba protegida por la Primera Enmienda de la Constitución de EE.UU., que protege las libertades fundamentales de los estadounidenses, como la libertad de expresión. Los abogados de los desarrolladores quieren que se desestime el caso porque dicen que los chatbots merecen estas protecciones de la Primera Enmienda, y fallar en sentido contrario podría tener un "efecto amedrentador" en la industria de la IA.
En su auto del miércoles, la juez de distrito Anne Conway rechazó algunas de las alegaciones de libertad de expresión de los demandados, afirmando que "no está preparada" para sostener que la producción de los chatbots constituya expresión "en esta fase". En un comunicado, un portavoz de Character.AI señaló una serie de características de seguridad que la empresa ha implementado, incluyendo barandillas para niños y recursos de prevención del suicidio que se anunciaron el día en que se presentó la demanda.
"Nos preocupamos mucho por la seguridad de nuestros s, y nuestro objetivo es ofrecer un espacio atractivo y seguro", afirma el comunicado. La demanda contra Character Technologies, la empresa que está detrás de Character.AI, también nombra como demandados a desarrolladores individuales y a Google. El portavoz de Google, José Castañeda, declaró a Associated Press que la empresa "está en total desacuerdo" con la decisión de la juez Conway. "Google y Character AI son empresas totalmente independientes, y Google no creó, diseñó ni gestionó la aplicación de Character AI ni ninguno de sus componentes", dice el comunicado.
Un posible "caso de prueba" para cuestiones más amplias relacionadas con la IA
El caso ha atraído la atención de expertos jurídicos y observadores de la IA en EE.UU. y otros países, ya que la tecnología reconfigura rápidamente los lugares de trabajo, los mercados y las relaciones, a pesar de lo que los expertos advierten que son riesgos potencialmente existenciales.
"Es una advertencia a los padres de que las redes sociales y los dispositivos de IA generativa no siempre son inofensivos", dijo Lyrissa Barnett Lidsky, profesora de Derecho de la Universidad de Florida, especializada en la Primera Enmienda y la IA. Independientemente de cómo se desarrolle la demanda, Lidsky dice que el caso es un aviso sobre "los peligros de confiar nuestra salud emocional y mental a las empresas de IA".