A finales de 2024, el Departamento de Energía de Estados Unidos (DOE) publicó una decisión administrativa con un título de lo más burocrático y aburrido —PSH-24-0142 – Respecto a una audiencia de seguridad del personal— pero cuyo contenido parecía salido de una comedia de ciencia ficción.
Y es que resulta que la mencionada audiencia tuvo como resultado que un empleado con acceso a información sensible sobre el arsenal nuclear estadounidense perdió su autorización de seguridad… después de subir accidentalmente a una red gubernamental más de 180.000 imágenes pornográficas generadas por inteligencia artificial.
Qué vicio con la IA
Según la documentación judicial, el incidente comenzó en marzo de 2023, cuando el empleado —identificado únicamente como «el individuo» en los documentos públicos— intentó hacer una copia de respaldo de su colección personal de imágenes pornográficas. Durante tres décadas había acumulado cerca de 187.000 archivos, que pensaba usar como base para entrenar un modelo de IA generativa que fuera capaz de crear imágenes de «pornografía robótica».
El problema fue que la copia de seguridad se realizó desde su equipo personal conectado a la red de un sitio del DOE, responsable de custodiar parte de las instalaciones nucleares del país. Convencido de que su disco personal estaba ‘particionado’ y no podía contaminar el sistema institucional, el empleado subió sin darse cuenta cientos de gigabytes de contenido sexual a servidores del gobierno.
Lo ocurrido fue descubierto seis meses después, cuando los administradores de red detectaron un flujo de datos anómalo y localizaron la fuente. El hallazgo generó alarma inmediata: aunque no había secretos de defensa implicados, planteó la posibilidad de que se hubieran vulnerado protocolos de seguridad informática.
La culpa es de la Inquisición
El DOE no se limitó a una investigación técnica: la agencia ordenó una evaluación psicológica del individuo, quien declaró padecer depresión desde la infancia y haber atravesado una crisis depresiva severa en el periodo del incidente. En sus propias palabras, crear y modificar imágenes generadas por IA se había convertido en una forma de evasión durante una etapa de aislamiento y soledad.
La psicóloga contratada por el DOE concluyó que el sujeto sufría un episodio depresivo mayor de nivel moderado a severo, que afectaba su juicio, fiabilidad y capacidad para cumplir normas. Aunque el empleado aseguró que estaba en tratamiento, había cambiado su medicación y tomado medidas para evitar repetir el error, la profesional consideró que su pronóstico de estabilidad era solo ‘regular’.
En el proceso de apelación, el trabajador comparó el trato recibido con la «Inquisición española» (quizá el hombre pensara que la Inquisición en otros lados era mucho más tolerante, no lo sabemos) y expresó sentirse vigilado en exceso por sus superiores.
El juez administrativo del caso determinó finalmente que no existían garantías suficientes de que el empleado pudiera evitar nuevos episodios que comprometieran su fiabilidad. Por tanto, el 6 de diciembre de 2024, se le negó la restauración de su credencial de seguridad.
Las nuevas meteduras de pata
Cuando los límites tecnológicos entre lo personal y lo profesional se desdibujan, el error del empleado del DOE no es más que un ejemplo de un nuevo tipo de riesgo: el «cibercomportamiento impropio». No se trata de espionaje ni sabotaje deliberado, sino de la incapacidad individual para gestionar entornos digitales complejos con las precauciones adecuadas.
Además, evidencia cómo los problemas de salud mental pueden amplificarse en entornos tecnológicos. La soledad, la hiperconectividad y la disponibilidad de herramientas creativas basadas en IA crean un terreno fértil para conductas compulsivas.
Vía | 404 Media
Imagen | Marcos Merino mediante IA
–
La noticia
Él sólo quería una IA que generase «porno de robots». Su error fue hacerlo desde un PC con acceso a los secretos nucleares de EE.UU.
fue publicada originalmente en
Genbeta
por
Marcos Merino
.


