Google, Microsoft, Meta y OpenAI, entre otras empresas, firmaron un acuerdo donde remarcan su compromiso para evitar el uso fraudulento de Inteligencia Artificial (IA) en las elecciones del 2024.
‘AI Elections Accord’ es un pacto que anunciado el viernes en la Conferencia de Seguridad de Múnich (Alemania), que tiene el fin de combatir el uso de ‘deepfakes’ durante las elecciones.
Es preciso resaltar que para este año hay más de 40 elecciones alrededor del mundo, en las que votarán más de 4.000 millones de personas.
IA PARA PRODUCIR DEEPFAKES
El ‘deepfake’ es un tipo de modificación de un contenido multimedia con herramientas de inteligencia artificial que muestra un gran realismo y puede generar dudas sobre su legitimidad.
Estas dudas se basan en sus peligrosos alcances: es capaz de alterar la apariencia, la voz o las acciones de personas reales.
En este caso, se busca combatir el uso fraudulento de esta tecnología con la imagen y la voz de candidatos políticos y funcionarios electorales, entre otros.
UN ACUERDO CON MASIVO APOYO
El mencionado acuerdo firmado cuenta con el apoyo de grandes empresas, como Amazon, Meta, Nokia, Google, LinkedIn, Snapchat, Adobe, IBM, McAfee, TikTok y OpenAI.
El respaldo apoya la idea de garantizar que “los votantes conserven el derecho a elegir quién los gobierna”, libres de la manipulación basada en IA.
Otro de los firmantes de este acuerdo, Microsoft, destacó en un comunicado que la IA “está generando una forma de manipulación nueva y potencialmente más peligrosa”.
ES UN PROBLEMA EN EXPANSIÓN
En esa línea, agregó que en los últimos meses el público “ha sido testigo de este problema en expansión” y de los riesgos que esto supone para los usuarios.
Para ejemplificar este problema, apuntó a las primarias de New Hampshire (Estados Unidos), donde los votantes recibieron llamadas automáticas que empleaban la IA para falsificar la voz de Joe Biden.
El empleo fraudulento de esta tecnología también se extendió a otros países, como Reino Unido, ya que en diciembre del 2024 circularon vídeos ‘deepfake’ del primer ministro británico, Rishi Sunak.
UN DESAFÍO QUE INVOLUCRA A TODOS
En base a esto, las compañías que han formalizado el acuerdo buscan lograr que los votantes estén bien informados para elegir a los líderes que les gobernarán.
Microsoft ha explicado que se trata de “un desafío” en el que están implicadas todas partes del sector tecnológico.
Existen aquellas empresas que crean modelos, aplicaciones y servicios de IA para crear estos contenidos, y aquellas que dan servicios al consumidor donde se pueden distribuir estos ‘deepfakes’.
COMPROMISOS DEL ACUERDO
El pacto reúne una serie de compromisos a cumplir con el objetivo de promover el uso legítimo de este tipo de herramientas de IA.
Primero, se centra en el trabajo de empresas que las desarrollan y les pide que fortalezcan su arquitectura de seguridad para prevenir y detectar su uso deliberadamente fraudulento.
También busca promover la autenticidad del contenido generado, adjuntando señales o etiquetas que indiquen su procedencia.
ESTRATEGIAS PARA DISTINGUIR LOS CONTENIDOS
Ejemplo de esto pueden ser marcas de agua, como los metadatos de la Coalición para la Procedencia y Autenticidad de Contenido (C2PA, por sus siglas en inglés).
Esto puede ayudar a las organizaciones y a los consumidores a diferenciar mejor el contenido aunténtico del que no lo es.
Asimismo, este acuerdo ayudará a promover la transparencia y a desarrollar la resiliencia de la sociedad ante las falsificaciones en escenarios como los procesos electorales.
UN TRABAJO EN CONJUNTO CON DIVERSAS ORGANIZACIONES
Argumentan que esta propuesta permite respetar en cualquier caso la libertad de expresión, pero a su vez proteger a quienes buscan estar informados.
Microsoft apuntó también que hay una obligación del sector tecnológico: continuar colaborando con diversas organizaciones de la sociedad civil, académicos y otros expertos en la materia.
Se trata de organizaciones que, según Microsoft, “desempeñan un papel indispensable en la promoción y protección de las democracias del mundo”.
HERRAMIENTAS DE CÓDIGO ABIERTO
Así, se pueden crear programas públicos y soluciones basadas en IA para ayudar a proteger el debate público y defender la integridad del proceso democrático.
Entre los posibles caminos se incluyen, por ejemplo, herramientas de código abierto.