
Un pronunciamiento del juez federal Jed Rakoff en el Distrito Sur de Nueva York encendió las alertas en despachos legales y empresas tecnológicas: lo que un usuario escribe en un chatbot puede ser requerido por un tribunal y presentado como evidencia. La decisión surgió del caso United States v. Heppner, y dejó por escrito que las conversaciones con asistentes de inteligencia artificial no gozan de la protección del secreto profesional, porque el intercambio ocurre con servidores de compañías privadas y bajo políticas de uso que prevén la entrega de datos a autoridades.
El expediente involucra a Bradley Heppner, exdirectivo de GWG Holdings, investigado por presunto fraude. Antes de su arresto, Heppner utilizó la versión gratuita de Anthropic, su chatbot Claude, para ordenar ideas, redactar documentos y ensayar su estrategia de defensa.
Cuando el FBI allanó su vivienda, incautó dispositivos que contenían esos archivos. La defensa intentó ampararlos bajo privilegio abogado-cliente, pero Rakoff lo rechazó: el imputado, sostuvo, no podía tener “expectativa razonable de confidencialidad” al haber aceptado términos de servicio que contemplan el tratamiento y eventual cesión de datos.
La resolución tuvo efecto dominó. Firmas legales como Crowell & Moring, Debevoise & Plimpton y Orrick emitieron alertas a clientes para que asuman que cualquier “prompt” en plataformas públicas de IA puede ser solicitado en un proceso de discovery.

Investigaciones académicas, como las difundidas por King’s College London, refuerzan el trasfondo del problema: las personas tienden a revelar más información sensible ante interfaces conversacionales que no juzgan y están disponibles todo el tiempo, lo que amplifica el riesgo de exposición cuando esos registros quedan almacenados.
Aunque el fallo es estadounidense, especialistas advierten que el criterio podría influir en litigios de otras jurisdicciones cuando se debata la obtención de pruebas digitales. El propio Rakoff dejó una rendija: si el uso del chatbot hubiese sido indicado expresamente por los abogados del acusado, podría discutirse su encuadre como “agente” del estudio jurídico. Fuera de ese escenario, la recomendación que circula en despachos y empresas es clara: tratar a servicios como ChatGPT, Gemini o Copilot como espacios no confidenciales. La conclusión que dejan el caso y las advertencias legales es directa: escribir en una IA ya no es solo pensar en voz alta, sino también dejar rastro documental.
Riobamba Stereo 89.3 FM Su radio Bonita – Noticias y chismes de la farándula ecuatoriana – Noticias que son tendencia | Fotos de los famosos, romances, divorcios, escándalos, embarazos, vacaciones de los famosos, compras de los famosos. Encuentre todo sobre la farándula Tendencias, moda, tecnología, mujer. Todos los temas que son tendencia, lo más usado, cómo vestirse para ocasiones, sitios de moda, rumba y comida.
