IA: un sommet pour regagner la confiance des clients
Le logiciel de connaissances artificielles peut reconnaître les apparences faciales, convertir entre le mandarin et le swahili et vaincre les meilleurs athlètes mondiaux de l’être humain dans ces types de jeux comme le go, les échecs et le poker. Ce qu’il ne peut généralement pas faire, c’est décrire par lui-même. L’IA est un logiciel qui peut tirer des informations ou des activités pour produire des prédictions. Votre programmeur personnel spécifie les données à travers lesquelles le logiciel doit apprendre et fournit des articles sur certaines instructions, appelées algorithme, sur la précision avec laquelle le logiciel doit le faire, mais ne précise pas ce qu’il doit vraiment comprendre. C’est ce qui présente à l’IA la plupart de son énergie: elle peut découvrir des connexions à l’intérieur des données qui pourraient être plus difficiles ou nuancées que l’individu habituel ne le trouverait. Mais cette complexité signifie que l’explication que l’application atteint réellement un verdict particulier est normalement généralement opaque, même pour leurs propres créateurs. Pour les fabricants de logiciels essayant d’offrir des systèmes d’IA, ce manque de lucidité pourrait être préjudiciable à l’organisation. Il est difficile pour l’humanité de s’appuyer sur une méthode qu’elle ne peut pas comprendre – et sans compter sur elle, les entreprises ne rapporteront pas beaucoup d’argent pour un logiciel IA. Cela est particulièrement vrai dans les domaines de carrière, notamment les services médicaux, les fonds et les forces de police, où les implications de la mauvaise recommandation professionnelle sont nettement plus importantes que, disons, cette fois, Netflix pensait que vous pourriez avoir du plaisir à observer The Hangover Component III. Le contrôle fait également voyager les entreprises pour demander une IA beaucoup plus explicable. Aux États-Unis, les lois sur la couverture d’assurance exigent que les organisations soient en mesure de clarifier pourquoi elles ont refusé la protection d’une personne ou leur ont facturé un montant supérieur par rapport à leurs voisins. Au sein de l’union européenne, le General Details Safety Control, qui avait abouti à Can’t, offre aux citoyens de l’UE un «droit à l’examen de votre homme» du choix algorithmique qui les influence. Lorsque l’institution financière rejette votre logiciel de prêt, elle ne peut pas simplement vous informer du fait que le personnel de l’institution bancaire a déclaré non à un PC afin de revoir la méthode utilisée par l’équipement ou d’effectuer une évaluation distincte. David Kenny, qui jusque finalement avant ces 30 jours était vice-président senior des solutions mentales d’International Enterprise Equipment Corp., a déclaré que lorsque IBM a interrogé 5000 entreprises sur l’utilisation de l’IA, 82% ont déclaré qu’elles voulaient atteindre cet objectif, mais les deux tiers de ces entreprises ont déclaré que ces personnes n’étaient pas disposées à aller de l’avant, avec une cote d’explication trop faible comme étant le plus grand obstacle à l’approbation. 60% des professionnels expriment désormais leur inquiétude quant au fait que les fonctions internes de l’IA sont trop énigmatiques, contre 29% en 2016. «Ils disent:« Si je veux faire une sélection essentielle tout autour de la souscription de la menace ou de la sécurité sanitaire des aliments, j’aimerais beaucoup plus explicabilité »», explique Kenny, qui est désormais le dirigeant principal de Nielsen Holdings Plc. En réaction, les distributeurs de logiciels et les intégrateurs de méthodes ont commencé à vanter une capacité remarquable à présenter aux acheteurs des observations sur la façon dont les cours d’IA croient. Lors de la conférence sur les systèmes de traitement des informations et des faits neuronaux à Montréal au début du mois de décembre, l’espace de vente d’IBM a proclamé son programme logiciel d’intelligence artificielle dépendant du cloud comme fournissant une «explicabilité». Le logiciel informatique d’IBM peut informer un consommateur des 3 à 5 variables que cette formule d’algorithme a pesé le plus intensément pour faire un choix. Il pourrait garder une trace de la lignée des données Web, indiquant aux clients d’où proviennent les éléments de détails utilisés à partir de la formule de l’algorithme. Ce qui peut être vital pour découvrir un parti pris, affirme Kenny. IBM propose désormais des équipements qui peuvent aider les entreprises à éliminer les détails des domaines de carrière qui peuvent être discriminatoires – par exemple, la race – et d’autres détails de données qui peuvent être soigneusement corrélés avec des facteurs individuels, comme les codes postaux. Quantum Black, une firme de discussion qui aide les systèmes de style des entreprises à examiner les détails, a mis l’accent sur le développement de l’IA explicable lors de la réunion, il y avait en fait plusieurs présentations scolaires sur le sujet. Accenture Plc a commencé à annoncer des «instruments d’équité», qui peuvent aider les entreprises à identifier et à appréhender les biais avec leurs ensembles de règles en matière d’IA, tout comme les concurrents Deloitte LLC et KPMG LLC. Yahoo, qui fait partie d’Alphabet Inc., a commencé à fournir des moyens à ceux qui utilisent ses techniques de découverte d’appareils pour mieux comprendre leurs fonctions de détermination. En juin, Microsoft Corp. a obtenu Bonsai, une nouvelle entreprise californienne qui avait promis de développer une IA explicable. Kyndi, une start-up de l’IA de San Mateo, en Californie, a même déposé une marque déposée sur le mot «IA explicable» pour vous aider à vendre son logiciel d’apprentissage automatique.