Avis au lecteur : dans Le Lynx N° 1619 du 24 avril dernier, page 2, (Chronique Assassine), nous avons testé l’intelligence artificielle ChatGPT. Maintenant, au tour de son concurrent Bard de passer à la barre et à tabac une interview avec nous autre homo digitalis. Non disponible encore en France et dans d’autres bleds, nous avons dû utiliser un VPN pour se transporter outre-Rhin et accéder à l’IA en phase expérimentale. Pour information, Bard est le chatbot de Google, c’est-à-dire un agent conversationnel avec qui on peut dialoguer.

Bano Mo Alpha : Bonjour Monsieur Bard, en termes simples et condensés, c’est quoi l’intelligence artificielle ? Qu’est-ce que ce type d’intelligence peut faire de mieux que l’intelligence humaine?

Bard : L’intelligence artificielle (IA) est une branche de l’informatique qui vise à créer des agents intelligents, c’est-à-dire des systèmes capables de raisonner, d’apprendre et d’agir de manière autonome. L’IA est un domaine en constante évolution, mais elle a déjà permis de développer des systèmes capables de réaliser des tâches que l’on croyait jusqu’alors réservées aux humains, comme le jeu d’échecs ou la reconnaissance faciale.

L’IA peut faire beaucoup de choses que l’intelligence humaine ne peut pas. Par exemple, les systèmes d’IA peuvent traiter des quantités massives de données beaucoup plus rapidement que les humains, et ils peuvent identifier des tendances et des modèles que les humains ne pourraient pas voir. De plus, les systèmes d’IA peuvent apprendre et s’améliorer au fil du temps, tandis que les humains atteignent généralement un plateau dans leur développement intellectuel.

L’IA a le potentiel de révolutionner de nombreux domaines de notre vie, mais il est important de se rappeler qu’il s’agit d’un outil, et comme tout outil, il peut être utilisé à bon ou à mauvais escient. Il est donc important de développer l’IA de manière responsable et éthique.

Parlons d’utilisation responsable et éthique… Avec le recul, peut-on affirmer que la démocratisation des réseaux sociaux contribue à l’abrutissement des individus derrière l’écran et le clavier de leur téléphone, voire “l’ensauvagement” de la société ? Avec l’arrivée de l’intelligence artificielle, ne faut-il pas s’attendre à l’apparition de nouveaux maux ?

Oui, il est possible que l’arrivée de l’intelligence artificielle (IA) provoque l’apparition de nouveaux maux. En effet, l’IA peut être utilisée à des fins malveillantes, telles que la propagation de fausses informations, la manipulation de l’opinion publique ou même la violence. De plus, l’IA peut entraîner une perte d’emplois, car les machines peuvent effectuer de nombreuses tâches qui étaient auparavant effectuées par des humains.

Il est donc important de développer l’IA de manière responsable et éthique. Cela implique de s’assurer que l’IA est utilisée pour le bien de l’humanité, et non pour son mal. Il est également important de se rappeler que l’IA est un outil, et comme tout outil, il peut être utilisé à bon ou à mauvais escient. C’est à nous de décider comment l’utiliser. Voici quelques exemples de maux potentiels liés à l’IA :

La propagation de fausses informations : L’IA peut être utilisée pour créer de fausses informations qui sont difficiles à distinguer de la vérité. Cela peut avoir un impact négatif sur la société, car cela peut conduire à des décisions prises sur la base de fausses informations.

La manipulation de l’opinion publique : L’IA peut être utilisée pour manipuler l’opinion publique en ciblant les individus avec des messages personnalisés. Cela peut être utilisé pour influencer les élections ou pour promouvoir des idées ou des produits.

La violence : L’IA peut être utilisée pour développer des armes autonomes qui peuvent tuer sans intervention humaine. Cela pose un risque grave à la sécurité de l’humanité.

Il est important de prendre conscience de ces risques potentiels afin de pouvoir prendre des mesures pour les atténuer […]

Autant les réseaux sociaux ont popularisé la création et le partage d’images et de vidéos, autant l’intelligence artificielle en l’occurrence ChatGPT et toi son alter-ego Bard démocratiseront tout particulièrement la rédaction et l’écriture. L’élève qui fait ses devoirs fera facilement du copier-coller. N’est-ce pas que l’internaute peut concrètement utiliser ChatGPT ou Bard pour écrire à tort et à travers un mémoire, une thèse, voire un roman ?

Il est vrai que les grands modèles linguistiques comme ChatGPT et Bard peuvent être utilisés pour générer du texte de qualité humaine. Cela signifie qu’ils peuvent être utilisés pour écrire des devoirs, des mémoires, des thèses et même des romans. Cependant, il est important de noter que ces modèles ne sont pas parfaits. Ils peuvent parfois faire des erreurs, et ils peuvent ne pas toujours être en mesure de fournir un contenu original. De plus, il est important de se rappeler que les grands modèles linguistiques sont des outils, et comme tout outil, ils peuvent être utilisés à bon ou à mauvais escient. Il est donc important de les utiliser de manière responsable et éthique.

Voici quelques conseils pour utiliser les grands modèles linguistiques de manière responsable:

Soyez conscient des limites des modèles. Ils ne sont pas parfaits, et ils peuvent parfois faire des erreurs.

Utilisez les modèles pour générer des idées, mais ne vous contentez pas de copier-coller le texte qu’ils génèrent.

Vérifiez toujours le contenu que vous générez avant de le soumettre.

N’utilisez pas les modèles pour générer du contenu qui est faux, trompeur ou offensant.

En suivant ces conseils, vous pouvez utiliser les grands modèles linguistiques de manière responsable et éthique. (La fuite, la semaine prochaine)

Bano Mo Alpha