Diriger l’intelligence des machines pour se défendre
L’entrepreneur technologique Elon Musk a récemment exhorté les gouverneurs du pays à réglementer la capacité d’apprentissage artificiel «avant qu’il ne soit trop tard». Musk insiste sur le fait que l’intelligence artificielle représente une «menace existentielle pour l’humanité», selon un alarmiste qui confond la science de l’IA avec la science-fiction. Même ainsi, même les experts de l’IA comme moi comprennent qu’il existe des préoccupations raisonnables quant à son impact sur les armes, les emplois et le niveau de confidentialité. Il est naturel de se renseigner, peu importe si nous devons produire de l’IA. Je pense que la bonne réponse est en effet. Mais ne devrions-nous pas prendre des mesures pour réduire au minimum le développement de l’IA, dans un souci de prudence extrême? Cependant, si nous le faisons, des pays comme les fournisseurs chinois nous dépasseront. Le cheval IA a conservé la grange, et notre meilleure option est généralement d’essayer de la diriger. L’IA ne doit pas être militarisée, et toute IA doit alors avoir un «changement de monnaie» imprenable. Au-delà de cela, nous devons gérer l’impact tangible des solutions d’IA (par exemple, la protection des voitures autonomes) plutôt que de chercher à déterminer et à maîtriser le domaine amorphe et en développement rapide de l’IA. Je suggère quelques lignes directrices pour des techniques intellectuelles contre nature qui arriver à être influencé par, mais développer davantage, les «trois lois de la robotique» que l’écrivain Isaac Asimov a publié en 1942: Un robot pourrait ne pas nuire exactement à une personne ou, par inaction, permettre à un individu de subir des dommages; un robot doit obéir aux achats que lui fournissent les personnes, sauf lorsque ce type de commandes serait contraire à la réglementation précédente; De plus, un robot doit protéger sa propre existence tant que ce type de sécurité n’entrera pas en conflit avec les deux dernières réglementations. Ces 3 directives légales sont chics mais peu claires: qu’est-ce qui, en particulier, comprend les dommages causés en ce qui concerne l’IA? Je recommanderais une base encore plus précise pour éviter les blessures liées à l’IA, selon mes trois directives. Tout d’abord, un processus d’IA doit faire l’objet d’une gamme complète de directives juridiques qui s’appliquent à son opérateur individuel. Ce principe comprendrait les méthodes exclusives, corporatives et commerciales et gouvernementales. Nous ne voulons jamais que l’IA participe à la cyberintimidation, à la manipulation des stocks ou aux risques terroristes; nous ne voulons jamais que le FBI publie des solutions d’IA qui poussent les gens à dépenser des infractions criminelles. Nous ne voulons jamais d’automobiles autonomes qui traversent des lumières de couleur rougeâtre, ou pire, des armes IA qui violent les traités mondiaux. Notre loi fréquente doit être modifiée afin que nous ne puissions pas signaler que notre méthode d’IA a effectué un problème que nous ne pouvions pas comprendre ou prédire. Autrement dit, «Mon IA l’a géré» ne devrait pas justifier une conduite interdite. Ma prochaine astuce est le fait qu’une méthode d’IA doit évidemment révéler qu’elle n’est pas individuelle. Comme nous l’avons expérimenté dans le cas des bots – des logiciels qui engageront un dialogue progressivement innovant avec de vrais individus – la société exige des assurances que les techniques d’IA sont clairement appelées ce genre de. En 2016, un bot généralement connu sous le nom de Jill Watson, qui s’est avéré être une aide pédagogique pour le cours d’étude en ligne à Georgia Technical, a induit les étudiants en erreur en pensant que c’était un homme. Un cas beaucoup plus critique pourrait être la consommation répandue de robots politiques experts de Trump sur les sites Web sociaux depuis les jours majeurs autour des élections de 2016, selon des chercheurs d’Oxford. Ma directive garantirait que les gens sachent à quel moment un bot usurpe l’identité d’un individu. Nous avons déjà vu, par exemple, @DeepDrumpf – un bot qui a imité humblement Donald Trump sur Youtube. Les solutions d’IA ne génèrent jamais seulement de faux tweets; en outre, ils développent de faux clips vidéo d’actualités. Des experts de l’université ou du collège de Washington ont récemment présenté une vidéo d’imitation de l’ancien directeur Barack Obama où il semblait convaincant de communiquer des mots qui avaient été greffés sur un clip vidéo de lui faisant référence à quelque chose de complètement différent. Mon troisième principe est qu’un programme d’IA n’est pas en mesure de conserver ou de divulguer des informations personnelles sans l’approbation spécifique de votre fourniture de ces informations. En raison de leur pouvoir extraordinaire d’extraire, de documenter et d’analyser automatiquement les informations, les solutions d’IA ont été dans une situation privilégiée pour acheter des informations et des faits privés. Considérez tous les chats qu’Echo sur le marché en ligne d’Amazon – un «haut-parleur intelligent» présent dans de plus en plus de résidences – est peut-être au courant, ou peut-être les informations que votre enfant peut divulguer accidentellement à un jouet en peluche, par exemple une IA Barbie. Même des robots de ménage quelque peu anodins créent des cartes de votre maison. Ce sont peut-être des détails que vous souhaitez réellement gérer.