banner
Centre d'Information
Obtenez de l'aide à tout moment grâce à notre service en ligne 24 heures sur 24.

Les chercheurs ne peuvent pas dire s’ils peuvent supprimer complètement les hallucinations de l’IA : une partie « inhérente » de l’utilisation « inadaptée »

Dec 20, 2023

L'ancienne plaideuse Jacqueline Schafer, PDG et fondatrice de Clearbrief, a déclaré que l'IA est fréquemment utilisée dans les salles d'audience, et elle a créé Clearbrief pour vérifier les citations et les documents judiciaires créés par l'IA générative.

Certains chercheurs sont de plus en plus convaincus qu’ils ne parviendront pas à éliminer les hallucinations des modèles d’intelligence artificielle (IA), qui restent un obstacle considérable à l’acceptation du public à grande échelle.

"Actuellement, nous ne comprenons pas grand-chose de la nature de la boîte noire dans laquelle l'apprentissage automatique arrive à ses conclusions", a déclaré Kevin Kane, PDG de la société de cryptage quantique American Binary, à Fox News Digital. "Dans l'approche actuelle visant à suivre cette voie de l'IA, la manière dont nous procéderions n'est pas claire. Nous devrions beaucoup changer leur façon de fonctionner."

Les hallucinations, nom désignant les informations inexactes ou les textes absurdes que l'IA peut produire, ont tourmenté les grands modèles de langage tels que ChatGPT pendant la quasi-totalité de leur exposition publique.

Les critiques de l’IA se sont immédiatement concentrées sur les hallucinations comme raison de douter de l’utilité des différentes plateformes, arguant que les hallucinations pourraient exacerber des problèmes déjà graves de désinformation.

LES PROGRAMMES POPULAIRES FONCTIONNÉS PAR L'IA FONT DES MESURES DANS LA SALLE D'AUDIENCE, RÉCLAMATIONS D'EXPERTS

Une illustration du 4 mai 2023 (Reuters/Dado Ruvic/Illustration)

Les chercheurs ont rapidement poursuivi leurs efforts pour supprimer les hallucinations et améliorer ce « problème connu », mais ce « problème de traitement des données » pourrait ne jamais disparaître en raison de « cas d'utilisation », le fait que l'IA puisse avoir des problèmes avec certains sujets, a déclaré Christopher Alexander, responsable des analyses. dirigeant du Pioneer Development Group.

"Je pense qu'il est absurde de dire que vous pouvez résoudre tous les problèmes, comme de dire que vous ne pourrez jamais le résoudre", a déclaré Alexander à Fox News Digital. "Je pense que la vérité se situe quelque part entre les deux, et je pense que cela va varier considérablement selon les cas.

QU’EST-CE QUE L’INTELLIGENCE ARTIFICIELLE (IA) ?

"Et si vous pouvez documenter un problème, j'ai du mal à croire que vous ne puissiez pas le résoudre."

Emily Bender, professeur de linguistique et directrice du laboratoire de linguistique computationnelle de l'Université de Washington, a déclaré à l'Associated Press que les hallucinations pourraient être « irréparables » car elles résultent d'une inadéquation « inhérente » entre « la technologie et le cas d'utilisation proposé ».

Cette inadéquation existe parce que les chercheurs ont cherché à appliquer l’IA à plusieurs cas d’utilisation et situations, selon Alexander.

ChatGPT est un grand modèle de langage qui fonctionne en analysant des ensembles de données massifs à partir des informations disponibles sur Internet. (Léon Neal/Getty Images)

Tout en développant une IA pour résoudre un problème spécifique, l'équipe d'Alexander a examiné les modèles existants afin de les réutiliser pour accomplir une tâche au lieu de construire un modèle complet. Il a affirmé que son équipe savait que le programme ne produirait pas de résultats idéaux, mais il soupçonnait que de nombreux groupes adoptaient une approche similaire sans pour autant comprendre les performances limitées.

"[Les chercheurs] ont assemblé des morceaux de quelque chose, et cela n'a pas nécessairement été fait pour cela, et maintenant, que va faire l'IA, c'est l'adapter aux circonstances ? Ils ne le font probablement pas complètement", a expliqué Alexander, suggérant que les chercheurs peut essayer d'affiner l'IA ou de créer des modèles personnalisés pour des tâches ou des secteurs spécifiques à l'avenir. "Donc, je ne pense pas que ce soit universel. Je pense que c'est vraiment au cas par cas."

QU'EST-CE QUE CHATGPT ?

Kane a déclaré que se fixer comme objectif de se débarrasser des hallucinations est "dangereux" puisque les chercheurs ne comprennent pas complètement comment fonctionnent les algorithmes derrière l'IA, mais cela revient en partie à une faille dans la compréhension du fonctionnement global de l'IA.

"Une grande partie de l'apprentissage automatique est en quelque sorte à notre image", a expliqué Kane. "Nous voulons qu'il nous parle comme nous nous parlons.

Le logo Nvidia affiché sur l'écran d'un téléphone et une puce électronique est visible sur cette illustration prise à Cracovie, en Pologne, le 19 juillet 2023. (Jakub Porzycki/NurPhoto via Getty Images)

"Nous essayons généralement de concevoir des systèmes qui imitent en quelque sorte la façon dont les humains comprennent l'intelligence, n'est-ce pas ?" il ajouta. "Les humains sont aussi une boîte noire, et ils présentent également certains des mêmes phénomènes. La question est donc la suivante : si nous voulons développer l'intelligence artificielle, cela signifie que nous voulons être comme les humains.