Sommaire :
00:00 – Introduction
01:00 – Risques de l’IA : panorama du consensus international
02:30 – Hallucinations, biais, désalignement : définitions
04:00 – Capacités des LLM : raisonnement, planification, empathie simulée
06:00 – Benchmarks classiques vs mesures pragmatiques
07:30 – AI Village : IA en environnement interactif
09:00 – Performances réelles dans les dossiers électroniques
10:30 – Hallucinations : mécanismes et exemples
12:00 – Pourquoi les modèles ne disent pas « je ne sais pas »
13:00 – Techniques pour réduire les erreurs : RAG, chaîne de pensée, outils
14:30 – Fréquence des hallucinations selon les domaines
15:30 – Biais dans les corpus et biais induits par le RLHF
17:00 – L’IA psychophante : quand les modèles veulent nous plaire
18:00 – Mensonges intentionnels : expériences en Diplomacy
19:30 – Comportements émergents : skimming, autopréservation, hacking
22:00 – Débat expert : pessimistes, optimistes et P-doom
23:30 – Vers quel futur de l’IA en médecine ?
25:00 – Conclusion
Résumé :
Dans cette conférence captivante, le Dr Frédéric Baroz explore une question essentielle : les grands modèles de langage (LLM) peuvent-ils nous tromper, volontairement ou non ? Entre hallucinations, biais, comportements émergents et risques de désalignement, cette présentation analyse de manière claire et accessible les limites actuelles de l’IA générative et les implications pour la pratique clinique.