Depuis l’année dernière, l’intelligence artificielle s’est largement répandue auprès du grand public. Qu’il s’agisse de générer un article via ChatGPT, de demander à DALL-E de créer une œuvre d’art à partir de zéro ou de poser les questions nécessaires à Bing AI. Presque chaque mois, il semble y en avoir un nouveau outil ou un chatbot.

Mais si les programmes d’IA peuvent offrir des avantages utiles, ils peuvent également être utilisés en masse à de mauvaises fins. Par exemple, les cybercriminels utilisent déjà ChatGPT pour rendre les e-mails de phishing plus crédibles.

L’IA représente donc le plus grand risque en 2024. Créer et diffuser de la désinformation via l’IA pour être précis. Cela ressort clairement d’une étude majeure du Forum économique mondial, qui demande chaque année l’avis de 1 400 experts en risques. Le danger de la désinformation est principalement dû aux nombreuses élections à venir.

« L’utilisation généralisée de fausses informations peut miner la crédibilité des gouvernements nouvellement élus. Cela pourrait conduire à des troubles allant de manifestations violentes et de crimes haineux à des affrontements civils et au terrorisme.

Plus de risques pour 2024

La diffusion de la désinformation n’est pas la seule préoccupation des experts en risques. La polarisation toujours croissante du monde, qui menace de perturber la coopération internationale, suscite également des inquiétudes. Et les conditions météorologiques extrêmes suscitent également des inquiétudes.

Il existe d’autres risques pour les Pays-Bas au niveau local. Dans notre pays, les plus grandes préoccupations sont la pénurie de main-d’œuvre, le ralentissement économique, le manque de cohésion sociale et la cybercriminalité, selon le rapport du WEF.