{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2025/04/03/los-5-tipos-de-informacion-personal-que-no-debes-compartir-con-chatgpt" }, "headline": "Las 5 cosas que no debes compartir en ChatGPT", "description": "ChatGPT se ha convertido en una de las herramientas populares para responder preguntas y ayudar en diversos asuntos cotidianos. Si bien su inteligencia artificial (IA) generativa puede resultar muy \u00fatil para el , algunos investigadores advierten que no se debe compartir todo con ella.", "articleBody": "ChatGPT, el producto de inteligencia artificial (IA) generativa de Open AI, garantiza a muchos s un asistente digital que puede escribir textos, corregir c\u00f3digos, analizar resultados m\u00e9dicos o incluso ayudar a dormir a un ni\u00f1o. Pero detr\u00e1s de estas respuestas \u00edntimas se esconden algoritmos que aprenden cosas de cada interacci\u00f3n.A lo largo de los a\u00f1os, ChatGPT no solo ha aprendido, por ejemplo, cuestiones sobre tus h\u00e1bitos de consumo o problemas de salud, sino que tambi\u00e9n ha memorizado muchos m\u00e1s detalles personales. De hecho, herramientas como ChatGPT tienen como objetivo personalizar las respuestas y mejorar su propio rendimiento futuro. Memorizan muchos detalles individuales, desde el estado f\u00edsico de los s hasta algunos asuntos muy privados.Aunque los s pueden deshabilitar esta funci\u00f3n a trav\u00e9s de la configuraci\u00f3n, sin embargo, dado que una gran cantidad de personas son indiferentes a esto, se puede proporcionar mucha informaci\u00f3n al famoso chatbot de Open AI. Pero, \u00bfqu\u00e9 no se debe decir? \u00bfY por qu\u00e9?Seg\u00fan las advertencias de los expertos, hay cinco tipos de datos que no se deben introducir en las conversaciones con los chatbots, ya que estos datos pueden utilizarse indebidamente en el proceso de formaci\u00f3n de modelos, errores del sistema o incluso en ciberataques.Informaci\u00f3n que no debe compartirse con ChatGPT1. Datos identificativos: como el pasaporte o documento de identidad, la direcci\u00f3n, el n\u00famero de tel\u00e9fono y la fecha de nacimiento. Algunos chatbots intentan censurar estos art\u00edculos, pero no hay garant\u00edas.2. Resultados de pruebas m\u00e9dicas: los chatbots no est\u00e1n sujetos a leyes estrictas de protecci\u00f3n de datos de salud. Si es necesario, sube solo los resultados de las pruebas sin informaci\u00f3n de identidad.3. Informaci\u00f3n financiera: como n\u00fameros de cuentas bancarias o de inversi\u00f3n, que pueden tener graves consecuencias si se divulgan de forma no intencionada.4. Informaci\u00f3n empresarial confidencial: muchos s utilizan chatbots para escribir correos electr\u00f3nicos o comprobar c\u00f3digos mientras trabajan, pero hacerlo puede revelar informaci\u00f3n empresarial confidencial o c\u00f3digos confidenciales.5. Contrase\u00f1as y nombres de : los chatbots no son un espacio seguro para almacenar contrase\u00f1as o soluciones de almacenamiento virtual como b\u00f3vedas digitales. Esta informaci\u00f3n debe guardarse en un software de istraci\u00f3n de contrase\u00f1as.Las grandes empresas como OpenIA, Google y Microsoft utilizan las conversaciones de los s para mejorar sus modelos. Si bien los s pueden habilitar la opci\u00f3n de no usar datos para el entrenamiento en entornos, muchas personas desconocen esta capacidad.Formas de mantener la privacidadLos expertos en ciberseguridad sugieren que tome las siguientes medidas para proteger su privacidad:\u2022 Usa el modo de chat temporal: la funci\u00f3n \u0022Chat temporal\u0022 act\u00faa como el modo inc\u00f3gnito del navegador, lo que impide que las conversaciones se guarden y se utilicen en los modelos de entrenamiento.\u2022 Eliminar conversaciones: puedes eliminarlas del historial una vez finalizada cada conversaci\u00f3n y asegurarte de que la informaci\u00f3n se borra por completo transcurridos 30 d\u00edas.\u2022 Usa herramientas de anonimizaci\u00f3n: el motor de b\u00fasqueda DuckDuckGo ha proporcionado una herramienta llamada Duck.ai que env\u00eda mensajes de forma an\u00f3nima a modelos de IA, aunque sus posibilidades son limitadas en comparaci\u00f3n con los chatbots m\u00e1s avanzados.En \u00faltima instancia, es el propio quien debe decidir qu\u00e9 compartir y qu\u00e9 informaci\u00f3n preservar. En otras palabras, los chatbots est\u00e1n dise\u00f1ados para mantener las conversaciones, pero la m\u00e1xima autoridad a\u00fan est\u00e1 en tus manos.", "dateCreated": "2025-03-31T10:39:11+02:00", "dateModified": "2025-04-07T07:53:39+02:00", "datePublished": "2025-04-03T06:00:56+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F85%2F52%2F56%2F1440x810_cmsv2_30284162-e236-5f18-95e6-f5541a215d47-7855256.jpg", "width": 1440, "height": 810, "caption": "ChatGPT", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F85%2F52%2F56%2F432x243_cmsv2_30284162-e236-5f18-95e6-f5541a215d47-7855256.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Las 5 cosas que no debes compartir en ChatGPT

ChatGPT
ChatGPT Derechos de autor AP
Derechos de autor AP
Por Euronews farsi
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

ChatGPT se ha convertido en una de las herramientas populares para responder preguntas y ayudar en diversos asuntos cotidianos. Si bien su inteligencia artificial (IA) generativa puede resultar muy útil para el , algunos investigadores advierten que no se debe compartir todo con ella.

PUBLICIDAD

ChatGPT, el producto de inteligencia artificial (IA) generativa de Open AI, garantiza a muchos s un asistente digital que puede escribir textos, corregir códigos, analizar resultados médicos o incluso ayudar a dormir a un niño. Pero detrás de estas respuestas íntimas se esconden algoritmos que aprenden cosas de cada interacción.

A lo largo de los años, ChatGPT no solo ha aprendido, por ejemplo, cuestiones sobre tus hábitos de consumo o problemas de salud, sino que también ha memorizado muchos más detalles personales. De hecho, herramientas como ChatGPT tienen como objetivo personalizar las respuestas y mejorar su propio rendimiento futuro. Memorizan muchos detalles individuales, desde el estado físico de los s hasta algunos asuntos muy privados.

Aunque los s pueden deshabilitar esta función a través de la configuración, sin embargo, dado que una gran cantidad de personas son indiferentes a esto, se puede proporcionar mucha información al famoso chatbot de Open AI. Pero, ¿qué no se debe decir? ¿Y por qué?

Según las advertencias de los expertos, hay cinco tipos de datos que no se deben introducir en las conversaciones con los chatbots, ya que estos datos pueden utilizarse indebidamente en el proceso de formación de modelos, errores del sistema o incluso en ciberataques.

Información que no debe compartirse con ChatGPT

1. Datos identificativos: como el pasaporte o documento de identidad, la dirección, el número de teléfono y la fecha de nacimiento. Algunos chatbots intentan censurar estos artículos, pero no hay garantías.

2. Resultados de pruebas médicas: los chatbots no están sujetos a leyes estrictas de protección de datos de salud. Si es necesario, sube solo los resultados de las pruebas sin información de identidad.

3. Información financiera: como números de cuentas bancarias o de inversión, que pueden tener graves consecuencias si se divulgan de forma no intencionada.

4. Información empresarial confidencial: muchos s utilizan chatbots para escribir correos electrónicos o comprobar códigos mientras trabajan, pero hacerlo puede revelar información empresarial confidencial o códigos confidenciales.

5. Contraseñas y nombres de : los chatbots no son un espacio seguro para almacenar contraseñas o soluciones de almacenamiento virtual como bóvedas digitales. Esta información debe guardarse en un software de istración de contraseñas.

Compartir información personal en ChatGPT puede poner en riesgo la privacidad de las personas.
Compartir información personal en ChatGPT puede poner en riesgo la privacidad de las personas.AP

Las grandes empresas como OpenIA, Google y Microsoft utilizan las conversaciones de los s para mejorar sus modelos. Si bien los s pueden habilitar la opción de no usar datos para el entrenamiento en entornos, muchas personas desconocen esta capacidad.

Formas de mantener la privacidad

Los expertos en ciberseguridad sugieren que tome las siguientes medidas para proteger su privacidad:

Usa el modo de chat temporal: la función "Chat temporal" actúa como el modo incógnito del navegador, lo que impide que las conversaciones se guarden y se utilicen en los modelos de entrenamiento.

Eliminar conversaciones: puedes eliminarlas del historial una vez finalizada cada conversación y asegurarte de que la información se borra por completo transcurridos 30 días.

Usa herramientas de anonimización: el motor de búsqueda DuckDuckGo ha proporcionado una herramienta llamada Duck.ai que envía mensajes de forma anónima a modelos de IA, aunque sus posibilidades son limitadas en comparación con los chatbots más avanzados.

En última instancia, es el propio quien debe decidir qué compartir y qué información preservar. En otras palabras, los chatbots están diseñados para mantener las conversaciones, pero la máxima autoridad aún está en tus manos.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

ChatGPT también tiene ansiedad y los expertos advierten sobre las consecuencias para el

Una empresa sa lanza 3 nuevos modelos de IA "más baratos" que sus rivales

La violencia sexual es la forma más común de acoso de la IA hacia los humanos