Altman confesó ante el conductor Theo Von que jóvenes consultan a ChatGPT sobre problemas de pareja, dudas existenciales o decisiones personales, creyendo que sus conversaciones se mantienen en total confidencialidad.
Sin embargo, a diferencia de lo que ocurre con médicos, abogados o psicólogos, estas interacciones no están protegidas por privilegios legales, como secreto médico o abogado-cliente. En este sentido, señaló Altman “Si hablás con ChatGPT sobre tus cosas más sensibles… podríamos estar obligados a entregarlas”.
OpenAI está luchando en tribunales contra una orden judicial que exigiría la retención de chats eliminados durante años, incluso los supuestamente borrados por los usuarios. La empresa define esta situación como un “exceso legal” y actualmente presenta una apelación.
Altman subrayó que no existe aún un marco legal comparable al de confidencialidad profesional aplicado al uso de IA. “No lo tuvimos que pensar hace un año, pero ahora es un gran problema legal”, dijo.
Investigaciones recientes muestran que los modelos conversacionales pueden ser utilizados para extraer información personal de los usuarios, incluso sin que éstos lo adviertan.
Artículos especializados recomiendan no compartir datos como documentos de identidad, resultados médicos, datos bancarios o contraseñas, y aconsejan eliminar los historiales con frecuencia, usar modos temporales o interactuar de forma anónima.
No hay confidencialidad legal: tus conversaciones pueden ser exigidas en un proceso judicial, y ChatGPT no brinda protección profesional.
Privacidad en riesgo: OpenAI puede usar tus datos para mejorar sus modelos o incluso compartirlos si hay reclamos legales.
Estás solo con un algoritmo: no reemplaza la empatía, juicio o responsabilidad de un profesional humano. Incluso Altman admite que no confiaría su “destino médico” únicamente a la IA.
En definitiva, puedes usar ChatGPT para tareas informativas o creativas, pero no para revelar tus secretos más íntimos. Tu privacidad, por ahora, no cuenta con escudo legal.