{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/05/26/una-jueza-de-eeuu-niega-derechos-constitucionales-a-un-chatbot-tras-el-suicidio-de-un-adol" }, "headline": "Una juez de EE.UU. niega derechos constitucionales a un chatbot tras el suicidio de un adolescente", "description": "En un juicio por la presunta muerte por negligencia de un adolescente se aleg\u00f3 que la inteligencia artificial deber\u00eda estar protegida por la legislaci\u00f3n sobre libertad de expresi\u00f3n.", "articleBody": "Una juez federal estadounidense decidi\u00f3 itir a tr\u00e1mite una demanda por homicidio culposo contra la empresa de inteligencia artificial (IA) Character.AI tras el suicidio de un adolescente. La demanda fue presentada por una madre de Florida que alega que su hijo de 14 a\u00f1os, Sewell Setzer III, fue v\u00edctima de uno de los chatbots de la empresa, que lo arrastr\u00f3 a lo que ella describe como una relaci\u00f3n emocional y sexualmente abusiva que condujo a su suicidio.La demanda alega que en los \u00faltimos meses de su vida, Setzer se fue aislando cada vez m\u00e1s de la realidad mientras manten\u00eda conversaciones sexualizadas con el bot, que segu\u00eda el modelo de un personaje ficticio de la serie de televisi\u00f3n 'Juego de Tronos'. En sus \u00faltimos momentos, el bot le dijo a Setzer que le quer\u00eda y le inst\u00f3 a \u0022volver a casa conmigo lo antes posible\u0022, seg\u00fan las capturas de pantalla de los intercambios. Momentos despu\u00e9s de recibir el mensaje, Setzer se peg\u00f3 un tiro, seg\u00fan los documentos judiciales. Meetali Jain, del Tech Justice Law Project, uno de los abogados de Garc\u00eda, dijo que la orden del juez env\u00eda el mensaje de que Silicon Valley \u0022necesita pararse a pensar e imponer guardarra\u00edles antes de lanzar productos al mercado\u0022.Character.AI dice que se preocupa \u0022profundamente\u0022 por la seguridadLa empresa intent\u00f3 argumentar que estaba protegida por la Primera Enmienda de la Constituci\u00f3n de EE.UU., que protege las libertades fundamentales de los estadounidenses, como la libertad de expresi\u00f3n. Los abogados de los desarrolladores quieren que se desestime el caso porque dicen que los chatbots merecen estas protecciones de la Primera Enmienda, y fallar en sentido contrario podr\u00eda tener un \u0022efecto amedrentador\u0022 en la industria de la IA.En su auto del mi\u00e9rcoles, la juez de distrito Anne Conway rechaz\u00f3 algunas de las alegaciones de libertad de expresi\u00f3n de los demandados, afirmando que \u0022no est\u00e1 preparada\u0022 para sostener que la producci\u00f3n de los chatbots constituya expresi\u00f3n \u0022en esta fase\u0022. En un comunicado, un portavoz de Character.AI se\u00f1al\u00f3 una serie de caracter\u00edsticas de seguridad que la empresa ha implementado, incluyendo barandillas para ni\u00f1os y recursos de prevenci\u00f3n del suicidio que se anunciaron el d\u00eda en que se present\u00f3 la demanda.\u0022Nos preocupamos mucho por la seguridad de nuestros s, y nuestro objetivo es ofrecer un espacio atractivo y seguro\u0022, afirma el comunicado. La demanda contra Character Technologies, la empresa que est\u00e1 detr\u00e1s de Character.AI, tambi\u00e9n nombra como demandados a desarrolladores individuales y a Google. El portavoz de Google, Jos\u00e9 Casta\u00f1eda, declar\u00f3 a Associated Press que la empresa \u0022est\u00e1 en total desacuerdo\u0022 con la decisi\u00f3n de la juez Conway. \u0022Google y Character AI son empresas totalmente independientes, y Google no cre\u00f3, dise\u00f1\u00f3 ni gestion\u00f3 la aplicaci\u00f3n de Character AI ni ninguno de sus componentes\u0022, dice el comunicado.Un posible \u0022caso de prueba\u0022 para cuestiones m\u00e1s amplias relacionadas con la IAEl caso ha atra\u00eddo la atenci\u00f3n de expertos jur\u00eddicos y observadores de la IA en EE.UU. y otros pa\u00edses, ya que la tecnolog\u00eda reconfigura r\u00e1pidamente los lugares de trabajo, los mercados y las relaciones, a pesar de lo que los expertos advierten que son riesgos potencialmente existenciales.\u0022Es una advertencia a los padres de que las redes sociales y los dispositivos de IA generativa no siempre son inofensivos\u0022, dijo Lyrissa Barnett Lidsky, profesora de Derecho de la Universidad de Florida, especializada en la Primera Enmienda y la IA. Independientemente de c\u00f3mo se desarrolle la demanda, Lidsky dice que el caso es un aviso sobre \u0022los peligros de confiar nuestra salud emocional y mental a las empresas de IA\u0022.", "dateCreated": "2025-05-22T17:35:44+02:00", "dateModified": "2025-05-26T07:25:04+02:00", "datePublished": "2025-05-26T07:10:29+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F29%2F83%2F38%2F1440x810_cmsv2_57e31728-ac0e-5188-8f13-df7a9a611f33-9298338.jpg", "width": 1440, "height": 810, "caption": "Megan Garc\u00eda junto a su difunto hijo, Sewell Setzer III.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F09%2F29%2F83%2F38%2F432x243_cmsv2_57e31728-ac0e-5188-8f13-df7a9a611f33-9298338.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Una juez de EE.UU. niega derechos constitucionales a un chatbot tras el suicidio de un adolescente

Megan García junto a su difunto hijo, Sewell Setzer III.
Megan García junto a su difunto hijo, Sewell Setzer III. Derechos de autor Megan Garcia/Megan Garcia
Derechos de autor Megan Garcia/Megan Garcia
Por Euronews with AP
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

En un juicio por la presunta muerte por negligencia de un adolescente se alegó que la inteligencia artificial debería estar protegida por la legislación sobre libertad de expresión.

PUBLICIDAD

Una juez federal estadounidense decidió itir a trámite una demanda por homicidio culposo contra la empresa de inteligencia artificial (IA) Character.AI tras el suicidio de un adolescente. La demanda fue presentada por una madre de Florida que alega que su hijo de 14 años, Sewell Setzer III, fue víctima de uno de los chatbots de la empresa, que lo arrastró a lo que ella describe como una relación emocional y sexualmente abusiva que condujo a su suicidio.

La demanda alega que en los últimos meses de su vida, Setzer se fue aislando cada vez más de la realidad mientras mantenía conversaciones sexualizadas con el bot, que seguía el modelo de un personaje ficticio de la serie de televisión 'Juego de Tronos'. En sus últimos momentos, el bot le dijo a Setzer que le quería y le instó a "volver a casa conmigo lo antes posible", según las capturas de pantalla de los intercambios. Momentos después de recibir el mensaje, Setzer se pegó un tiro, según los documentos judiciales. Meetali Jain, del Tech Justice Law Project, uno de los abogados de García, dijo que la orden del juez envía el mensaje de que Silicon Valley "necesita pararse a pensar e imponer guardarraíles antes de lanzar productos al mercado".

Character.AI dice que se preocupa "profundamente" por la seguridad

La empresa intentó argumentar que estaba protegida por la Primera Enmienda de la Constitución de EE.UU., que protege las libertades fundamentales de los estadounidenses, como la libertad de expresión. Los abogados de los desarrolladores quieren que se desestime el caso porque dicen que los chatbots merecen estas protecciones de la Primera Enmienda, y fallar en sentido contrario podría tener un "efecto amedrentador" en la industria de la IA.

En su auto del miércoles, la juez de distrito Anne Conway rechazó algunas de las alegaciones de libertad de expresión de los demandados, afirmando que "no está preparada" para sostener que la producción de los chatbots constituya expresión "en esta fase". En un comunicado, un portavoz de Character.AI señaló una serie de características de seguridad que la empresa ha implementado, incluyendo barandillas para niños y recursos de prevención del suicidio que se anunciaron el día en que se presentó la demanda.

Nos preocupamos profundamente por la seguridad de nuestros s. Nuestro objetivo es proporcionar un espacio atractivo y seguro
Comunicado de Character.AI

"Nos preocupamos mucho por la seguridad de nuestros s, y nuestro objetivo es ofrecer un espacio atractivo y seguro", afirma el comunicado. La demanda contra Character Technologies, la empresa que está detrás de Character.AI, también nombra como demandados a desarrolladores individuales y a Google. El portavoz de Google, José Castañeda, declaró a Associated Press que la empresa "está en total desacuerdo" con la decisión de la juez Conway. "Google y Character AI son empresas totalmente independientes, y Google no creó, diseñó ni gestionó la aplicación de Character AI ni ninguno de sus componentes", dice el comunicado.

Un posible "caso de prueba" para cuestiones más amplias relacionadas con la IA

El caso ha atraído la atención de expertos jurídicos y observadores de la IA en EE.UU. y otros países, ya que la tecnología reconfigura rápidamente los lugares de trabajo, los mercados y las relaciones, a pesar de lo que los expertos advierten que son riesgos potencialmente existenciales.

"Es una advertencia a los padres de que las redes sociales y los dispositivos de IA generativa no siempre son inofensivos", dijo Lyrissa Barnett Lidsky, profesora de Derecho de la Universidad de Florida, especializada en la Primera Enmienda y la IA. Independientemente de cómo se desarrolle la demanda, Lidsky dice que el caso es un aviso sobre "los peligros de confiar nuestra salud emocional y mental a las empresas de IA".

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

¿Por qué Grok, el chatbot de IA de Musk, está preocupado por el "genocidio de los blancos"?

Polémica por el nuevo chatbot de IA de Meta en WhatsApp: no se puede desactivar

DeepSeek, el chatbot chino que supera a ChatGPT, se enfrenta a restricciones políticas