La pandémie de COVID-19 s’est accompagnée d’une «infodémie» sans précédent. Les fausses nouvelles, en particulier les « deepfakes », posent des risques croissants, à tel point qu’Europol, l’agence européenne de police criminelle, prévoit que 90 % du contenu en ligne pourrait être généré par l’intelligence artificielle d’ici à 2026.
Dans cet article, Janice Mulligan (Lexing USA) analyse :
- le défi majeur que constituent les fausses informations (fake news) et les trucages vidéo ultra-réalistes (deepfakes);
- la difficulté croissante à démêler le vrai du faux et le double rôle de l’IA dans la création et la détection de fake news ;
- les conséquences de cette désinformation dans le secteur de la santé, que ce soit pour les patients ou les professionnels de santé ;
- les différentes approches réglementaires adoptées en Europe et aux Etats-Unis pour encadrer ce phénomène ;
- la responsabilité des plateformes de réseaux sociaux dans la diffusion de fausses informations.
Janice Mulligan offre également des pistes de réflexions pour lutter contre la désinformation dans le domaine de la santé :
- la limitation de LLM aux bases de données médicales ;
- l’apprentissage de l’ingénierie de prompt (prompt engineering) ;
- l’introduction d’exemptions dans le domaine de la santé publique en matière de responsabilité ;
- l’autorégulation ;
- le développement de nouvelles solutions technologiques.
Enfin, Janice Mulligan s’est tournée vers ChatGPT 4-0 pour lui demander quel serait sont plan d’action contre la désinformation dans le domaine de la santé. L’agent conversationnel utilisant l’intelligence artificielle générative de la société Open AI a formulé les recommandations supplémentaires suivantes :
- renforcer l’éducation aux médias ;
- renforcer la collaboration internationale ;
- élaborer et mettre en œuvre des lignes directrices complètes en matière d’éthique de l’IA ;
- augmenter le financement de la recherche pour les études sur la désinformation.
