La Casa Blanca anunció el viernes que Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI aceptaron respetar varios principios en el desarrollo de la inteligencia artificial (IA) para hacerla más segura y transparente.
Dichas empresas estadounidenses a la vanguardia de esta tecnología se comprometieron a trabajar en particular en sistemas de marcado de contenidos creados con IA con el fin de reducir los riesgos de fraude y desinformación.
En especial, prometieron probar sus programas informáticos interna y externamente antes de su lanzamiento, invertir en ciberseguridad y compartir las informaciones pertinentes sobre sus herramientas con autoridades e investigadores, incluidas posibles fallas.
LEA MÁS: ¿Podría perder mi trabajo si desconozco cómo funciona la Inteligencia Artificial?
También deberán "desarrollar técnicas sólidas para asegurar que los usuarios sepan cuándo los contenidos han sido generados por IA, como un sistema de marca de agua", indicó un comunicado del gobierno estadounidense.
"Esto permitirá que la creatividad ligada a la IA prospere mientras se reducen los peligros relacionados con fraudes o engaños", precisó.
Las fotografías falsas o los vídeos manipulados extremadamente realistas, también llamados “deepfakes”, existen desde hace años, pero la IA generativa, capaz de producir imágenes tras una simple solicitud, genera temores por olas de contenido desinformativo en línea.
Estas pueden prestarse para fabricar estafas muy creíbles o incluso para manipular la opinión, una perspectiva preocupante en especial cuando se aproximan elecciones en Estados Unidos en 2024.
Hasta ahora, las principales empresas involucradas se han mostrado, sobre todo, reticentes a la idea de agregar dichas marcas sobre los contenidos creados con sus programas.
"Es un tema complicado", admitió a periodistas un alto funcionario de la Casa Blanca.
La marca de agua "debe funcionar tanto para los contenidos visuales como sonoros", detalló. "Técnicamente debe ser robusta, pero también fácil de ver para los usuarios".
LEA MÁS: ¿La inteligencia artificial podría acabar con la humanidad?
“Es un buen primer paso para ayudar al público a identificar los contenidos creados con IA”, comentó James Steyer, fundador de la oenegé Common Sense Media.
"Pero este tipo de marcado por sí solo no bastará para evitar a actores maliciosos utilizar dichos contenidos con fines nefastos o ilegales", matizó el experto, al mencionar la existencia de programas piratas de IA generativa disponibles en línea.
En mayo, la Casa Blanca insistió sobre el "deber moral" de la empresas de IA de garantizar la seguridad de sus productos.
Las tensiones políticas en el Congreso hacen poco probable legislar sobre IA en lo inmediato, aunque el gobierno adelantó que trabaja en un decreto ejecutivo.