• Dom. Feb 16th, 2025

La desinformación por inteligencia artificial, una gran amenaza global: Foro Económico Mundial

PorNancy Ramos

Jul 6, 2024
La desinformación por inteligencia artificial, una gran amenaza global: Foro Económico Mundial

TEGUCIGALPA, HONDURAS.- La desinformación impulsada por la inteligencia artificial (IA) es la mayor amenaza global, junto con la crisis climática. Así se presenta en el Informe de Riesgo Global 2024 del Foro Económico Mundial (FEM).

El documento sitúa la desinformación generada por la IA como el principal problema a corto plazo (2 años) y el quinto a largo plazo (10 años).

Este fenómeno, que encabeza las 10 primeras cuestiones del ranking del entorno de riesgo global (a corto plazo), representa una importante amenaza para la estabilidad y la legitimidad democrática en los próximos dos años. porque votarán más de 3.000 millones de personas.

En consecuencia, la creciente desconfianza hacia las fuentes de información, los medios y los gobiernos profundiza la opinión polarizada de la sociedad. Esta dinámica crea un círculo vicioso que puede provocar disturbios y enfrentamientos civiles.

Las autoridades también enfrentan el desafío de frenar la difusión de información falsa sin comprometer los derechos civiles básicos. La inacción en esta cuestión también conlleva riesgos importantes.

El documento, elaborado conjuntamente con las aseguradoras Marsh McLennan y Zurich Insurance Group, recoge las opiniones de 1.500 expertos sobre los peligros potenciales a los que se enfrentará la humanidad en los próximos años (2 y 10).

En general, el 54% de los encuestados predice cierta inestabilidad y un riesgo moderado de catástrofes globales, mientras que otro 30% espera condiciones aún más turbulentas.

«A diferencia de 2023, cuando había optimismo a largo plazo, estos resultados reflejan unas perspectivas negativas para los próximos dos años que empeorarán a lo largo de la década», recordó la directora del FEM, Saadia Zahidi.

Opciones, prueba

Durante los próximos dos años, casi 3 mil millones de personas acudirán a las urnas en varios países, incluidos Estados Unidos, India, Reino Unido, México, Indonesia y Honduras.

La presencia de desinformación en estos procesos electorales puede amenazar la legitimidad de los gobiernos recién elegidos y potencialmente desencadenar malestar político y violencia, erosionando estos sistemas a largo plazo, sugiere la investigación.

El «Informe de Riesgo Global», que incluye datos recopilados entre el 4 de septiembre y el 9 de octubre de 2023, señala que «el uso generalizado de información errónea y desinformación, y los medios por los que se difunde, pueden socavar la legitimidad de los gobiernos recién elegidos».

Y las consecuencias van más allá de la política, con posibles brotes de violencia, crímenes de odio y terrorismo, señala.

De manera similar, es preocupante el impacto de la desinformación en el contexto político. Las campañas de desinformación pueden generar desconfianza y hostilidad entre diferentes grupos, fomentando un ambiente de sospecha y división, lo que a su vez puede conducir a un aumento de la violencia y los crímenes de odio.

Los votantes que no pueden distinguir la verdad de las mentiras pueden tomar decisiones basadas en mentiras, lo que socava la confianza en las instituciones democráticas.

En India, por ejemplo, se ha identificado la desinformación como el riesgo número uno para las elecciones generales, lo que demuestra que las preocupaciones varían según el contexto regional, señala el Informe de Riesgos Globales 2024.

Sin embargo, el uso de inteligencia artificial para crear desinformación también plantea serias preocupaciones éticas. La necesidad de desarrollar tecnologías y métodos para combatir la desinformación se vuelve cada vez más urgente y compleja debido a la diversidad de ecosistemas.

En este sentido, FME afirma que “al crear sistemas integrales, los desarrolladores pueden garantizar que la inteligencia artificial se utilice de manera ética y responsable, fortaleciendo así la confianza y promoviendo el uso beneficioso de la inteligencia artificial en diversos campos”.

Otra alternativa para contrarrestar el efecto de la desinformación es «la información responsable, que incluye la selección de medios adecuados, fuentes primarias confiables y una gran apertura a la discusión de temas, con la presencia de una variedad de voces, con el fin de estimular el pensamiento crítico». ”, indicó René Gavarrete, profesor de la Escuela de Periodismo de la Universidad Nacional de San Pedro Sula.

«Instruir a la sociedad a cuestionar o confrontar lo que parece inimaginable, o simplemente contenido visual o narrativo que está enmarcado por intereses creados o es parte de un entorno polarizador», añadió.

Distribución

Las tecnologías de inteligencia artificial han facilitado la creación de contenidos masivos sintéticos, desde sofisticadas imitaciones de voz hasta sitios web falsos, sin necesidad de habilidades especiales.

Esta situación ha llevado a los gobiernos a implementar nuevas regulaciones para hacer frente a la desinformación en línea. Por ejemplo, «En China, los requisitos de marcas de agua para el contenido generado por IA pueden ayudar a identificar información falsa, incluida la información errónea no intencionada a través del contenido generado por IA».

«El principal riesgo es el avance de herramientas que desplazan o modifican la realidad, creando y alterando imágenes, formatos audiovisuales y sonidos, lo que nos obliga a dedicar más tiempo a utilizar herramientas de control», afirmó René. Gavarrete, profesora de la Escuela de Periodismo.

Sin embargo, según el informe, el ritmo de estas regulaciones puede no ser suficiente para seguir el ritmo de los avances tecnológicos.

Los recientes avances tecnológicos han amplificado el volumen y la eficacia de la información falsa, haciendo más difícil rastrear y atribuir su origen.

Además, según el estudio del WEF, la desinformación está cada vez más personalizada para diferentes grupos de la sociedad y se difunde a través de plataformas de mensajería privada como WhatsApp o WeChat.

Estas campañas de desinformación tienen consecuencias profundas y pueden amenazar los procesos democráticos, erosionando la confianza pública en la información y las instituciones, aumentando potencialmente la polarización y socavando las libertades civiles.

Esta situación presenta un desafío importante que requiere respuestas regulatorias efectivas y un compromiso global para proteger la integridad de los procesos democráticos y la libertad de expresión, afirma el hallazgo.

Impacto social

El costo de la desinformación no sólo se mide en confusión y desconfianza, sino que también es tangible y devastador.

Según el Informe de riesgo global 2024 del WEF, la desinformación es una de las mayores amenazas en los próximos años y decenas de países no están abordando esta cuestión.

Las narrativas falsas pueden influir en las elecciones, manipular el comportamiento de los votantes e incitar conflictos sociales. Y en manos de actores malintencionados, la IA se convierte en una herramienta de propaganda y censura.

Según el Foro, los grupos vulnerables son particularmente vulnerables a estas campañas. La desinformación sexista perpetúa los estereotipos y alimenta la misoginia, mientras que los mensajes polarizadores profundizan las divisiones sociales.

«Estas campañas manipulan la opinión pública, causando daños sociales generalizados y profundizando las divisiones sociales existentes», advierte la investigación.

De esta manera, «la desinformación sexista, por ejemplo, perpetúa los estereotipos y la misoginia, marginando aún más a los grupos vulnerables».

La IA como aliada

El rápido desarrollo de las tecnologías de IA muchas veces excede la capacidad de vigilancia de los gobiernos, provocando daños sociales, pero no todo es oscuro en el horizonte tecnológico, según fuentes del equipo de verificación de EL HERALDO.

Los sistemas avanzados de inteligencia artificial pueden analizar patrones, uso del lenguaje y contexto para detectar información falsa y desinformación. Estas herramientas permiten moderar contenidos y verificar la autenticidad de las noticias, ofreciendo un rayo de esperanza en la lucha contra la falsedad.

“Como toda herramienta tiene riesgos y beneficios, y como toda experiencia tecnológica, siempre tiene sus pros y sus contras”, opinó René Gavarrete.

“La IA maliciosa es una amenaza real por sí misma y por su potencial de proliferación. Por supuesto, esto puede abrumar y desafiar el uso social”, añadió.

Es posible que algunos gobiernos y plataformas que tienen como objetivo proteger la libertad de expresión y las libertades civiles no tomen medidas efectivas para frenar la información errónea y el contenido dañino.

Como resultado, la definición de «verdad» se vuelve cada vez más controvertida en las sociedades. Tanto los actores estatales como los no estatales pueden explotar la desinformación para aumentar la división pública y socavar la confianza social.

Es por eso que organizaciones como Adobe, Arm, Intel, Microsoft y TruePic, la Coalición para la Autenticidad y Procedencia del Contenido (C2PA), están desarrollando estándares técnicos para verificar el origen del contenido en línea que ayudan a distinguir lo real de lo falso.

En este sentido, la FME señala que «para mitigar aún más los riesgos relacionados con la IA, los desarrolladores y las organizaciones deben implementar salvaguardias sólidas, medidas de transparencia y marcos de rendición de cuentas».

Pero el desafío de la desinformación requiere una respuesta multifacética. Además de las herramientas tecnológicas, es fundamental promover la alfabetización mediática y el pensamiento crítico de la población.

«Las escuelas, bibliotecas y organizaciones comunitarias desempeñan un papel vital en el fomento de estas habilidades, proporcionando recursos y programas de capacitación que ayudan a las personas a evaluar críticamente las fuentes de información, distinguir entre información errónea y contenido fáctico, y tomar decisiones informadas». añade el FEM.

Caroline Klint, directora comercial europea de Marsh McLennan, destacó los beneficios de la inteligencia artificial para mejorar la productividad económica y los servicios públicos.

Pero advirtió que sin un enfoque en el bien público, «la brecha digital entre países de altos y bajos ingresos crea una desigualdad significativa en la distribución de beneficios y riesgos».

La cooperación entre gobiernos, empresas de tecnología, academia y organizaciones de la sociedad civil es esencial.

La Alianza para la Gobernanza de la IA y la Coalición Global de Seguridad Digital del Foro Económico Mundial reúnen a expertos y organizaciones de todo el mundo para abordar los complejos desafíos de la inteligencia artificial, incluida la producción de contenido engañoso o dañino y la infracción de los derechos de propiedad intelectual.

La directora del FEM, Saadia Zahidi, insistió en que si bien el panorama es sombrío, el futuro está en manos de políticos y economistas para cambiar esta situación.

La desinformación impulsada por la IA es una amenaza real y presente, pero no insuperable.

Según los expertos, con un enfoque combinado de innovación tecnológica, regulación adecuada y educación mediática, se pueden mitigar sus riesgos y explotar sus beneficios.

El futuro de la sociedad depende de la capacidad de adaptarse y colaborar, asegurando que la verdad prevalezca en la era digital, dice el informe.