Intelligence Artificielle: quels bienfaits et quels dangers
De SIRI aux voitures personnelles, les connaissances artificielles (IA) progressent rapidement. Bien que la science-fiction dépeint souvent l’IA comme des robots aux qualités humaines, l’intelligence artificielle peut englober tout, des techniques de recherche de Google à Watson d’IBM en passant par les armes autonomes. L’intellect artificiel de nos jours est appelé à juste titre IA mince (ou IA affaiblie), en ce sens qu’il doit être développé pour effectuer un processus mince (par exemple, uniquement la réputation faciale ou uniquement des recherches sur le Web ou uniquement la conduite d’une voiture). Néanmoins, l’objectif à long terme de plusieurs scientifiques serait de produire une IA générale (AGI ou IA solide). Alors que l’IA étroite peut surpasser les humains, quel que soit son travail particulier, comme jouer activement aux échecs ou résoudre des équations, l’AGI surpasserait les gens à presque tous les processus cognitifs. Dans la phrase proche, l’objectif de maintenir l’effet bénéfique de l’IA sur la société encourage l’étude dans de nombreux endroits, de l’économie et de la législation aux sujets spécialisés tels que la confirmation, la validité, la protection et la gestion. Bien que cela puisse être un peu plus qu’une petite gêne au cas où votre ordinateur portable se bloque ou serait piraté, il peut être d’autant plus essentiel qu’une méthode d’IA fasse ce que vous voudriez qu’elle fasse lorsqu’elle régule votre véhicule, votre avion, votre stimulateur cardiaque, votre système d’achat et de vente automatique ou peut-être votre réseau électrique. Un autre obstacle à court terme consiste à arrêter une course dévastatrice de biceps et de triceps dans des outils autonomes mortels. À long terme, une question importante pour vous est de savoir ce qui se passera lorsque la recherche d’une IA puissante sera couronnée de succès et qu’une méthode d’IA deviendra bien meilleure que les autres tâches cognitives. Comme l’a révélé I.J. Excellent en 1965, créer des méthodes d’IA plus intelligentes est en soi un travail intellectuel. Ce type de méthode pourrait potentiellement entreprendre un développement personnel récursif, déclenchant une explosion de l’intelligence laissant derrière l’intellect humain de manière significative. En inventant de nouvelles technologies révolutionnaires, une telle superintelligence peut nous aider à éradiquer la guerre, la maladie et la pauvreté, de sorte que l’introduction d’une puissante IA peut être la plus grande célébration dans le milieu humain. Certains experts ont toutefois exprimé leur inquiétude quant au fait qu’elle pourrait également fonctionner comme le dernier, à moins que nous apprenions à aligner les objectifs de l’IA avec les nôtres juste avant qu’elle ne devienne superintelligente. Il y en a quelques-uns qui se demandent si une IA puissante sera jamais accomplie, ainsi que d’autres qui insistent sur le fait que la création d’une IA superintelligente est garantie d’être avantageuse. Chez FLI, nous identifions ces deux possibilités, mais identifions également l’opportunité d’un programme d’intelligence artificielle d’entraîner intentionnellement ou non un préjudice fantastique. Nous pensons que la recherche actuelle peut nous aider à mieux nous préparer et à arrêter ce genre de conséquences probablement néfastes à l’avenir, profitant ainsi des avantages de l’IA tout en restant à l’écart des pièges. La plupart des chercheurs conviennent qu’une IA superintelligente est improbable pour montrer des sentiments humains tels que jouir ou n’aimer, qu’il n’y a absolument aucune raison d’anticiper que l’IA devienne délibérément bienveillante ou malveillante. Au lieu de cela, lorsqu’ils envisagent comment l’IA peut éventuellement devenir un risque, les experts pensent probablement à deux circonstances: l’IA est programmée pour prendre des mesures désastreuses: les outils autonomes sont des méthodes de connaissances synthétiques qui sont programmées pour éliminer. À la disposition de la personne incorrecte, ces armes pourraient très facilement provoquer des pertes de taille. De plus, une course de mains de l’IA pourrait accidentellement provoquer une guerre de l’IA entraînant également des pertes massives. Pour éviter d’être contrarié par l’ennemi, ces armes pourraient être extrêmement difficiles à «détourner», seo de sorte que les humains pourraient vraisemblablement perdre le contrôle de ce type de situation. Ce danger n’est que celui qui existe malgré une IA étroite, mais qui augmentera à mesure que les degrés d’intellect et d’autonomie de l’IA augmentent. L’IA est développée pour rendre un mouvement bénéfique, mais elle construit une façon dangereuse d’atteindre son objectif: cela peut se produire si nous ne parvenons pas à aligner totalement les objectifs de l’IA avec les nôtres, ce qui est extrêmement difficile. Dans le cas où vous vérifiez avec une voiture astucieuse et obéissante d’en emmener une au terminal de l’aéroport dès que possible, cela peut vous permettre de vous y rendre poursuivi par des copters et protégé de vomi, ne faisant pas ce que vous vouliez mais en fait tout ce que vous avez demandé. Lorsqu’un produit superintelligent se voit confier le travail d’une tâche de géo-ingénierie engagée, il pourrait causer des dommages, notre écosystème étant un effet secondaire, et considérer les tentatives des êtres humains pour l’arrêter comme une menace à affronter. Comme l’illustrent ces bons exemples, le souci de l’IA avancée n’est pas la malveillance mais les compétences. Une IA excellente et intelligente sera probablement très compétente pour atteindre ses objectifs, et lorsque les objectifs individuels ne correspondent pas aux nôtres, nous avons un problème. Vous n’êtes peut-être pas un méchant anti-fourmis qui combat les fourmis loin de la méchanceté, mais si vous êtes responsable d’une tâche de vitalité verte hydroélectrique et qu’il y a une fourmilière dans la région à surcharger, ainsi malsaine pour les fourmis. Un objectif clé des études scientifiques de base sur la sécurité de l’IA est de ne jamais placer l’humanité dans le placement de ces fourmis.