JE M'ABONNE DÈS AUJOURD'HUI
et j'accède à plus de contenu
ISO 690 | Kiefer, B., IA, prédation, jungle et clowns, Rev Med Suisse, 2024/872 (Vol.20), p. 904–904. DOI: 10.53738/REVMED.2024.20.872.904 URL: https://www.revmed.ch/revue-medicale-suisse/2024/revue-medicale-suisse-872/ia-predation-jungle-et-clowns |
---|---|
MLA | Kiefer, B. IA, prédation, jungle et clowns, Rev Med Suisse, Vol. 20, no. 872, 2024, pp. 904–904. |
APA | Kiefer, B. (2024), IA, prédation, jungle et clowns, Rev Med Suisse, 20, no. 872, 904–904. https://doi.org/10.53738/REVMED.2024.20.872.904 |
NLM | Kiefer, B.IA, prédation, jungle et clowns. Rev Med Suisse. 2024; 20 (872): 904–904. |
DOI | https://doi.org/10.53738/REVMED.2024.20.872.904 |
Exporter la citation | Zotero (.ris) EndNote (.enw) |
Ce que révèle une vaste enquête du New York Time sur la course aux données des Big Tech est sidérant.1 Ce n’est pas d’une simple course qu’il s’agit. Ni de l’habituelle concurrence des sociétés à la pointe de leur domaine. Mais d’une course absolue, complètement folle, où tous les coups sont permis. L’enjeu est de construire la version d’IA générative qui dominera les autres. Celle qui assurera la mainmise sur de nouveaux gisements de profits, remplacera le plus efficacement quantité de métiers, produira les meilleures prothèses humanisées de pensées, de création et même d’existence. On comprend l’agitation.
Donc : accélération du captage des données. Mais aussi violation de toutes les barrières qui les protègent. Non seulement, les géants des technologies enfreignent les lois, mais ils abandonnent toute éthique, et même leurs propres directives internes. Ils utilisent sans autorisation les données protégées par le droit d’auteur. « Négocier des licences avec les éditeurs, les artistes, les musiciens et l’industrie de l’information prendrait trop de temps » se justifient-ils. Que risquent-ils, d’ailleurs ? Pour les sociétés comme Google ou Méta, plus riches et puissantes que des États, les procès ou amendes liés au vol massif importent peu : leur coût est largement en deçà de ce qui est en jeu.
Cette frénésie de capture de données par les Big Tech ne s’arrête pas à la spoliation des professionnels. Pour améliorer GPT-3 et obtenir sa version 4, OpenAI a par exemple avoué s’être servi de la transcription de plus d’un million d’heures de vidéos YouTube, appartenant à Google. Google était bien sûr au courant, mais comme lui aussi utilise ces données sans droit, il a laissé faire, rapporte l’enquête. Ceux qu’en réalité ce système dépouille sans consentement ni compensation, ce sont les millions de personnes qui ont créé les vidéos, y ont mis des idées, s’y sont livrés, ont donné quelque chose, parfois beaucoup d’eux-mêmes. Dépouillés, ils le sont d’autant plus que les savoirs reconfigurés que l’IA aura construit avec leurs données serviront ensuite à effacer leurs compétences et à les contraindre à consommer un nouveau monde d’artifice et de simulation.
Ces derniers mois, la prédation a franchi de nouvelles limites. Tout ce qui se trouve en ligne est capté, y compris les forums, programmes informatiques, photos, podcasts, vidéos. Peut-être ces entreprises se retiennent-elles encore de se servir des contenus privés qu’elles gèrent : conversations captées par Siri (entre autres) documents Word ou Excel, informations médicales, contrats, etc. La vérité est que nous l’ignorons.
Ce qui est sûr, en revanche, c’est qu’il est urgent de redistribuer les profits et de réguler les pouvoirs liés à l’IA, au lieu de les laisser s’accumuler chez ceux qui en ont déjà suffisamment pour faire comme s’ils n’avaient plus de comptes à rendre. Sinon le cercle vicieux pourrait entraîner les humains vers une totale soumission et une parfaite insignifiance.
Comment en est-on arrivé là ? Comment un tel Far West a-t-il pu se développer en quelques années, voire quelques mois ? Selon le NYT, tout est parti d’un article de Jared Kaplan, brillant théoricien de l’IA, qui a montré que les performances d’un grand modèle de langage sont corrélées à la taille du modèle, aux capacités de calcul mais surtout à la quantité de données servant à l’entraîner. Cette démonstration a été d’une extraordinaire fécondité. Elle a entre autres mené au développement de Chat-GPT. Jamais elle n’a été démentie. Si bien que la course pour dominer l’IA, en particulier dans sa capacité de produire des contenus qui ressemblent à ce que crée un humain, est devenue une recherche insensée de toutes les données humaines possibles.
La nécessité de nourrir le système devient si pressante que certaines entreprises utilisent l’IA pour produire des données « synthétiques » (textes, images et codes d’origine non humaine) pour la faire progresser en retour. L’intérêt (ou non) de cette approche « autophagique » fait l’objet de toutes sortes d’analyses. Le risque existe cependant qu’elle enferme l’IA dans des boucles où se renforcent les « hallucinations » (réponses fausses présentées comme certaines) et dérives idéologiques. Par exemple, qu’elle construise une hiérarchie de réponses à l’opposé des valeurs humaines. Une autre possibilité serait que la redondance débouche sur la constitution d’un gigantesque stock de mèmes. Ce qui pourrait mener à des situations plus drolatiques que graves, si les humains n’étaient pas si vulnérables au toc qui se fait passer pour vrai.
Avant de réfléchir à ce qu’est l’IA générative (ou peut-être en même temps), il faut se demander : comment l’évaluer ? Comment savoir quelle version écrit le meilleur texte, le code le mieux conçu ou génère l’image la plus réaliste ? À l’heure actuelle, il n’existe pas de réponse. Nous ne savons pas à quel point les systèmes d’IA générative sont intelligents. Aucun outil d’évaluation standardisé ne permet la comparaison systématique de leurs capacités, ni de leurs limites ou vulnérabilités. L’un des tests les plus couramment utilisé est le Massive Multitask Language Understanding (MMLU), une collection de 16 000 QCM portant sur des dizaines de domaines, allant des mathématiques au droit et à la médecine. C’est devenu la référence en matière d’IA en compétition pour la domination en intelligence générale. Mais les systèmes ne cessent de se jouer de ce genre de tests, en les intégrant dans leurs nouvelles versions.
Pour le dire autrement, nous sommes bien en peine de définir l’intelligence de l’IA. En médecine, par exemple, lorsque les gens interrogent une IA générative, ils attendent une exactitude et une cohérence des résultats. S’ils obtiennent une mauvaise réponse une fois sur dix lorsqu’ils posent une question, est-ce suffisant pour une application médicale ? Et comment savoir si un test est valable dans l’ensemble des situations ? Là encore, personne n’a de réponse. Avec les actuelles IA génératives, il existe une certaine fiabilité de la production, mais aucun lien vérifiable avec une source ni aucun raisonnement capable de soutenir une relation à la vérité (ou à la réalité). La statistique utilisée dans les modèles de langage est performante, mais l’idéologie qui la sous-tend n’est pas accessible, son épistémologie n’est pas contestable car non clarifiée.
Il n’y a donc aucun moyen d’intervenir sur ce qui est à l’œuvre. La pensée critique des personnes qui n’appartiennent pas à l’élite des Big Tech ne peut plus s’exercer. Et peut-être même cette petite élite n’a-t-elle pas (ou plus) de volonté critique ni les outils conceptuels nécessaires pour reprendre la main sur les machines.
Organiser un futur souhaitable demande de maîtriser la grammaire du monde. Par exemple : qu’est-ce que la médecine, comment s’hybride-t-elle avec les humains, vers quoi faire évoluer sa structure ? Ces questions ne sont pas statistiques, elles sont épistémologiques et éthiques.
La cerise sur le gâteau de cet avenir-simulacre du monde, c’est la manière qu’ont les grands patrons des entreprises qui dominent l’IA – ces clowns de plus en plus moralisateurs – de prétendre qu’une course sans but clair représente un destin valable pour l’humanité et qu’eux seuls – parce que demi-dieux de leur propre religion – détiennent les ultimes critères de vérité.
Quand oserons-nous dire : les clowns sont nus ? La montée de l’insignifiance n’est pas un progrès. Le seul horizon qui compte, au-delà du bruit des machines, c’est la possibilité, pour les humains, de se créer eux-mêmes un destin.
1 Metz C, Kang C, Frenkel S, Thompson S, Grant N. How Tech Giants Cut Corners to Harvest Data for A.I. NY Times 8 avril 2024.
Le produit a bien été ajouté au panier ! Vous pouvez continuer votre visite ou accéder au panier pour finaliser votre commande.
Veuillez entrer votre adresse email ci-dessous pour recevoir un lien de réinitialisation de mot de passe
Vous pouvez créer votre nouveau mot de passe ici
Certains de ces cookies sont essentiels, tandis que d'autres nous aident à améliorer votre expérience en vous fournissant des informations sur la manière dont le site est utilisé.
Les cookies nécessaires activent la fonctionnalité principale. Le site Web ne peut pas fonctionner correctement sans ces cookies et ne peut être désactivé qu'en modifiant les préférences de votre navigateur.
Ces cookies permettent d’obtenir des statistiques de fréquentation anonymes du site de la Revue Médicale Suisse afin d’optimiser son ergonomie, sa navigation et ses contenus. En désactivant ces cookies, nous ne pourrons pas analyser le trafic du site de la Revue Médicale Suisse
Ces cookies permettent à la Revue Médicale Suisse ou à ses partenaires de vous présenter les publicités les plus pertinentes et les plus adaptées à vos centres d’intérêt en fonction de votre navigation sur le site. En désactivant ces cookies, des publicités sans lien avec vos centres d’intérêt supposés vous seront proposées sur le site.
Ces cookies permettent d’interagir depuis le site de la Revue Médicale Suisse avec les modules sociaux et de partager les contenus du site avec d’autres personnes ou de les informer de votre consultation, lorsque vous cliquez sur les fonctionnalités de partage de Facebook et de Twitter, par exemple. En désactivant ces cookies, vous ne pourrez plus partager les articles de la Revue Médicale Suisse depuis le site de la Revue Médicale Suisse sur les réseaux sociaux.