ChatGPT se ha convertido en una de las herramientas populares para responder preguntas y ayudar en diversos asuntos cotidianos. Si bien su inteligencia artificial (IA) generativa puede resultar muy útil para el , algunos investigadores advierten que no se debe compartir todo con ella.
ChatGPT, el producto de inteligencia artificial (IA) generativa de Open AI, garantiza a muchos s un asistente digital que puede escribir textos, corregir códigos, analizar resultados médicos o incluso ayudar a dormir a un niño. Pero detrás de estas respuestas íntimas se esconden algoritmos que aprenden cosas de cada interacción.
A lo largo de los años, ChatGPT no solo ha aprendido, por ejemplo, cuestiones sobre tus hábitos de consumo o problemas de salud, sino que también ha memorizado muchos más detalles personales. De hecho, herramientas como ChatGPT tienen como objetivo personalizar las respuestas y mejorar su propio rendimiento futuro. Memorizan muchos detalles individuales, desde el estado físico de los s hasta algunos asuntos muy privados.
Aunque los s pueden deshabilitar esta función a través de la configuración, sin embargo, dado que una gran cantidad de personas son indiferentes a esto, se puede proporcionar mucha información al famoso chatbot de Open AI. Pero, ¿qué no se debe decir? ¿Y por qué?
Según las advertencias de los expertos, hay cinco tipos de datos que no se deben introducir en las conversaciones con los chatbots, ya que estos datos pueden utilizarse indebidamente en el proceso de formación de modelos, errores del sistema o incluso en ciberataques.
Información que no debe compartirse con ChatGPT
1. Datos identificativos: como el pasaporte o documento de identidad, la dirección, el número de teléfono y la fecha de nacimiento. Algunos chatbots intentan censurar estos artículos, pero no hay garantías.
2. Resultados de pruebas médicas: los chatbots no están sujetos a leyes estrictas de protección de datos de salud. Si es necesario, sube solo los resultados de las pruebas sin información de identidad.
3. Información financiera: como números de cuentas bancarias o de inversión, que pueden tener graves consecuencias si se divulgan de forma no intencionada.
4. Información empresarial confidencial: muchos s utilizan chatbots para escribir correos electrónicos o comprobar códigos mientras trabajan, pero hacerlo puede revelar información empresarial confidencial o códigos confidenciales.
5. Contraseñas y nombres de : los chatbots no son un espacio seguro para almacenar contraseñas o soluciones de almacenamiento virtual como bóvedas digitales. Esta información debe guardarse en un software de istración de contraseñas.
Las grandes empresas como OpenIA, Google y Microsoft utilizan las conversaciones de los s para mejorar sus modelos. Si bien los s pueden habilitar la opción de no usar datos para el entrenamiento en entornos, muchas personas desconocen esta capacidad.
Formas de mantener la privacidad
Los expertos en ciberseguridad sugieren que tome las siguientes medidas para proteger su privacidad:
• Usa el modo de chat temporal: la función "Chat temporal" actúa como el modo incógnito del navegador, lo que impide que las conversaciones se guarden y se utilicen en los modelos de entrenamiento.
• Eliminar conversaciones: puedes eliminarlas del historial una vez finalizada cada conversación y asegurarte de que la información se borra por completo transcurridos 30 días.
• Usa herramientas de anonimización: el motor de búsqueda DuckDuckGo ha proporcionado una herramienta llamada Duck.ai que envía mensajes de forma anónima a modelos de IA, aunque sus posibilidades son limitadas en comparación con los chatbots más avanzados.
En última instancia, es el propio quien debe decidir qué compartir y qué información preservar. En otras palabras, los chatbots están diseñados para mantener las conversaciones, pero la máxima autoridad aún está en tus manos.