Una charla de esta pionera de la programación, perdida para siempre por haber desaparecido todos los reproductores compatibles

Una charla de esta pionera de la programación, perdida para siempre por haber desaparecido todos los reproductores compatibles

Grace Murray Hopper es una figura fundamental de la historia de la informática: matemática, oficial de la Marina de los Estados Unidos y pionera en la creación de lenguajes de programación: creadora del lenguaje COBOL, del lenguaje FLOW-MATIC (el primero que usaba palabras en lenguaje natural en lugar de meros símbolos) y del primer compilador, nada menos. También fue la primera persona en utilizar la palabra ‘bug’ para referirse a un problema informático (aunque ella lo hizo de forma literal, no retórica).

Pues bien, Michael Ravnitzky -un periodista estadounidense experto en solicitar la publicación de documentos en propiedad del Estado- había solicitado en múltiples ocasiones (la primera, en 2021) a la Agencia Nacional de Seguridad (NSA) que hiciera pública una charla de la almirante Hopper titulada ‘Future Possibilities: Data, Hardware, Software, and People’ («Posibilidades futuras: Datos, hardware, software y personas») que nuestra protagonista impartió el 18 de agosto de 1982 en la Escuela Nacional de Criptografía, y que se conservaban allí mismo, dividida en dos cintas de vídeo.

La conferencia de Hopper no es sólo una pieza histórica, sino un documento de vital importancia para entender la evolución de nuestro pensamiento y expectativas en torno a la evolución tecnológica, sobre todo partiendo sabiendo que aporta la perspectiva de una persona que siempre fue una adelantada a su época. Su valor para los estudiosos de la historia de la informática parece claro, sin duda.

Llevo más de una década traduciendo formatos de fichero de la antigua informática para que no desaparezca

En Xataka

Llevo más de una década traduciendo formatos de fichero de la antigua informática para que no desaparezca

¿La sociedad tecnológica también perderá sus recuerdos?

Al principio, la NSA había negado que sus fondos albergasen dicho documento… hasta que finalmente se desveló la verdad: conservan dichas cintas, pero no hay forma de publicar su contenido debido a la obsolescencia del formato en el que fue registrado: no quedaban reproductores de vídeo que permitieran acceder a la charla para digitalizarla.

Una agencia gubernamental conocida globalmente por su capacidad tecnológica (específicamente a la hora de captar y recopilar información) se ha visto superada por dos cintas en formato Ampex de una pulgada (un formato que, para más inri, alguna vez fue estándar en el mercado).

Lo cierto es que en las últimas dos semanas, se han alzado voces argumentando que instituciones como la NASA o el Smithsonian deberían contar con equipo adecuado para visionar los vídeos, pero todavía no se han podido confirmar dichas afirmaciones.

Pero la incapacidad (o, siendo optimistas, la dificultad) a la hora de acceder a este material no hace sino indicarnos un problema más amplio: los efectos de la obsolescencia digital sobre la preservación de la información.

Y, aunque las cintas sean un medio analógico, este problema afecta igualmente a los formatos digitales: en un mundo donde la tecnología avanza a un ritmo vertiginoso, muchos formatos antiguos se están volviendo inservibles, poniendo en riesgo la preservación de información histórica vital.

Imagen | Marcos Merino mediante IA

En Genbeta | Guardar tus archivos y copias de seguridad en tarjetas SD y pendrives USB es muy tentador por precio, pero el riesgo es enorme


La noticia

Una charla de esta pionera de la programación, perdida para siempre por haber desaparecido todos los reproductores compatibles

fue publicada originalmente en

Genbeta

por
Marcos Merino

.

La UE aprueba una pionera ley de IA pionera que ya contempla «riesgos inaceptables» para nuestra seguridad. Esto es lo que permite

La UE aprueba una pionera ley de IA pionera que ya contempla

El Parlamento Europeo acaba de marcar un hito histórico aprobando la primera Ley de Inteligencia Artificial a nivel mundial, una norma que se alza ahora como referencia en la regulación de esta tecnología emergente.

El texto, que ha sido objeto de intensos debates y deliberaciones desde su propuesta inicial por la Comisión Europea en abril de 2021, ha sido finalmente ratificado con un amplio respaldo: 523 votos a favor, 46 en contra y 49 abstenciones.

Eso sí, su publicación en el Diario Oficial de la UE no está prevista hasta mayo, con lo que será entonces cuando dé comienzo esta ‘nueva era’ en la regulación de la IA. Aunque, incluso entonces, pasarán todavía algunos meses mientras todos los países miembros aprueban la implementación de la norma en sus países

Eso no ha impedido al comisario europeo de Mercado Interno, Thierry Breton, destacar que la votación de hoy en el Parlamento Europeo posiciona a la UE como un «definidor de estándares» en materia de inteligencia artificial.

Los europarlamentarios han hecho todo lo posible para aprobar esta ley antes de que finalizara la legislatura (ha faltado poco)

Qué plantea esta nueva normativa

Esta legislación pionera se basa en un marco regulatorio que pretende clasificar los sistemas de IA en cuatro niveles de riesgo, desde mínimo hasta inaceptable, estableciendo estrictos requisitos y certificaciones para los sistemas de IA que se consideran de alto riesgo, con el objetivo de que sólo aquellos que han sido aprobados por las autoridades reguladoras puedan comercializarse.

OpenAI presionó a la UE para flexibilizar la normativa sobre IA mientras su CEO seguía pidiendo más regulación en público

En Genbeta

OpenAI presionó a la UE para flexibilizar la normativa sobre IA mientras su CEO seguía pidiendo más regulación en público

Estos son los cuatro niveles:

  • Riesgo inaceptable: Este nivel incluye los sistemas de IA que representan una clara amenaza para la seguridad, medios de vida y derechos de las personas, y que por ello estarán prohibidos en la UE. Ejemplos de ello serían desde los juguetes con asistencia por voz que promuevan comportamientos peligrosos, a los sistemas de reconocimiento masivo.
  • Alto riesgo: Los sistemas clasificados como de alto riesgo están sujetos a obligaciones estrictas antes de su comercialización, como la evaluación y mitigación de riesgos, requisitos de alta calidad para los datasets de entrenamiento, registro de actividades para trazabilidad, documentación detallada y supervisión humana. Esto incluye la identificación biométrica remota y sistemas usados en áreas críticas (justicia, control de fronteras, seguridad de productos, gestión laboral, servicios esenciales…).
  • Riesgo limitado: Este nivel se refiere a los sistemas de IA que requieren transparencia en su uso, como los chatbots (que deben identificarse claramente como tales), y el contenido generado por IA (textos, vídeos e imágenes), que deben ser etiquetados como generados artificialmente. La idea es que los usuarios sean conscientes de que están consumiendo contenido generado por IA.
  • Riesgo mínimo o nulo: Este nivel permite el uso libre de sistemas de IA que no representan un riesgo significativo, como los utilizados para filtrar spam en correos electrónicos o en ciertos videojuegos. La mayoría de los sistemas de IA en uso hoy en día en la UE caen dentro de esta categoría, por lo que no enfrentarán nuevas obligaciones legales.

Riesgos

Imagen: Xataka

Se pretende, así, equilibrar la protección de los derechos elementales de los ciudadanos con la promoción de la innovación tecnológica en Europa.

La Ley de IA también establece una Oficina Europea de IA encargada de supervisar la implementación de la norma y garantizar el cumplimiento, con poder para imponer multas significativas a las empresas que violen sus disposiciones.

La burocracia favorece a los grandes (de Silicon Valley)

Sin embargo, su aprobación no ha estado exenta de controversia: ciertos sectores de la industria han expresado su temor sobre cómo las nuevas normas podrían ralentizar el desarrollo y la implementación de aplicaciones innovadoras de IA, temiendo un posible freno a la innovación.

Pero no sólo la industria: gobiernos como los de Francia, Alemania e Italia, en particular, defendieron ‘abrir la mano’ con las startups y pymes, con el fin de no obstaculizar su capacidad para competir con gigantes tecnológicos como Google y OpenAI.

Google y OpenAI los temen, pero la UE puede hundirlos: así afectará este nuevo reglamento europeo a los proyectos de IA open source

En Genbeta

Google y OpenAI los temen, pero la UE puede hundirlos: así afectará este nuevo reglamento europeo a los proyectos de IA open source

También se pedía desde diversos sectores favorables al código abierto que los proyectos que se acogieran a este tipo de licencia estuvieran sometidos a una regulación diferenciada en cuanto a requisitos y pagos, pues temen que, a efectos prácticos, la burocracia a la que quieren someter a los proyectos de IA, pensada para grandes compañías, terminaría sacando del mercado europeo a proyectos más pequeños, llenos de desarrolladores voluntarios. Todo ello, en favor, de nuevo, de los gigantes ya establecidos en el mercado.

Imagen | Marcos Merino mediante IA

En Genbeta | La UE impone una multa histórica a Apple de 1.800 millones de euros tras la demanda de Spotify por «abusar de su posición dominante»


La noticia

La UE aprueba una pionera ley de IA pionera que ya contempla «riesgos inaceptables» para nuestra seguridad. Esto es lo que permite

fue publicada originalmente en

Genbeta

por
Marcos Merino

.