Photo Pourquoi l'adage « échouez au plus vite » mène au désastre quand on parle d'intelligence artificiell

Pourquoi l'adage « échouez au plus vite » mène au désastre quand on parle d'intelligence artificiell

Cet adage est bien connu dans le milieu des start-ups. Cette mentalité d'échouer rapidement consiste à mettre sur le marché un produit à peine viable, puis à le mettre au point rapidement jusqu'au succès. Cette méthode part du principe qu'un entrepreneur a peu de chances de concevoir un produit final réussi avant de le tester avec de vrais clients et des réelles conséquences. 

Lisez cette citation de Reid Hoffman, PDG de LinkedIn : « Si vous n'avez pas honte de la première version de votre produit, vous l'avez lancé trop tard. »

L'opposé de la mentalité de l'échec rapide est une approche "cascade" au développement, où une quantité significative de temps est investie à l'analyse des besoins, à la conception et planification des divers scénarios possibles avant que le produit soit testé avec de vrais clients.

En ce qui concerne l'intelligence artificielle et son potentiel, je pense que cette mentalité de l'échec rapide est une recette désastreuse.

L'intelligence artificielle est notre avenir.

De nombreux types de logiciels artificiellement intelligents nous entourent. La plupart des IA ont une autorité minimale aujourd'hui. Par exemple, le logiciel d'Amazon vous recommande des choses qu'il pense que vous aimeriez acheter, mais il n'achète pas ces choses à votre place... pour le moment. Le logiciel de Spotify crée une playlist pour vous, mais si une chanson n'est pas à votre goût, il n'y a pas de conséquences. Le logiciel de Google décide quels sites Web sont les plus pertinents pour vos termes de recherche, mais ne décide pas quel site Web vous allez visiter. Dans tous les cas ci-dessus, la mentalité de l'échec rapide est acceptable. L'utilisation régulière conduit à plus de données, ce qui entraîne des améliorations dans les algorithmes.

Mais les logiciels de renseignement commencent à prendre des décisions indépendantes qui représentent un risque beaucoup plus élevé. Le risque d'échec est trop grand pour être pris à la légère, car les conséquences peuvent être irréversibles ou omniprésentes.

Nous ne voulons pas que la NASA échoue rapidement. Un seul lancement d'une navette spatiale coûte 450 millions de dollars et met des vies humaines en danger.


Les risques liés à l'IA augmentent.

Imaginez ceci : Que se passerait-il si nous exposions plus de 100 millions de personnes à un logiciel intelligent qui décidait quelles informations elles lisaient, et que nous découvrions plus tard que les informations pouvaient être trompeuses ou même fausses et qu'elles avaient eu pour résultat d'influencer l'élection du Président des États-Unis d'Amérique ? Qui serait tenu pour responsable ?

Ce scénario semble peu probable, mais les médias estiment que l'influence Russe lors des dernières élections a atteint 126 millions de personnes rien que sur Facebook. Les enjeux sont de plus en plus grands et nous ne savons pas qui doit rendre des comptes. Je crains que les entreprises qui sont à la tête des progrès de l'IA ne soient pas conscientes de cette responsabilité. La méthode de l'échec rapide ne devrait pas être une excuse acceptable en vue de résultats imprévus.

Si vous n'êtes pas convaincus, imaginez ces scénarios, résultats de la mentalité d'échec rapide :

- Comment réagiriez-vous si l'ensemble de votre épargne-retraite s'évaporait du jour au lendemain à cause de l'intelligence artificielle ? Voilà comment ça pourrait arriver. Dans un futur proche, des millions d'Américains utiliseront des logiciels intelligents pour investir des milliards de dollars dans l'épargne-retraite. Le logiciel décidera où investir l'argent. Lorsque le marché s'emballe massivement, comme c'est parfois le cas, le logiciel devra réagir rapidement pour redistribuer votre argent. Cela peut mener à la perte et vos fonds disparaissent en quelques instants. Qui est responsable ?

- Et si votre ami mourrait dans un accident de voiture à cause de l'intelligence artificielle ? Dans un futur proche, des millions d'Américains achèteront des voitures sans conducteur contrôlées par un logiciel intelligent. Le logiciel décidera du sort de nombreux Américains. L'intelligence artificielle choisira-t-elle de percuter un piéton qui traverse soudainement la rue ou de sortir le véhicule de la route ? Il s'agit de décisions prises en une fraction de seconde et qui ont des conséquences réelles. Si la décision est fatale, est-ce que quelqu'un en est responsable ?

- Et si votre fille ou votre fils souffrait de dépression à cause de l'intelligence artificielle ? Dans un futur proche, des millions d'enfants auront un meilleur ami artificiel. Ce sera un peu comme un ami invisible. Ce sera un compagnon du nom de Siri ou Alexa ou quelque chose d'autre qui parle et se comporte comme un ami intime. Nous présenterons cet ami à nos enfants parce qu'il sera amical, intelligent et attentionné. Il pourrait même remplacer une baby-sitter. Cependant, si votre enfant passe tout son temps avec cet ami artificiel et que, des années plus tard, il n'est pas capable de construire de vrais relations dans le monde réel, est-ce que quelqu'un en est responsable ?

Dans certains cas, les conséquences sont irrémédiables.


Approche responsable de l'IA.

L'argument contraire est que les humains sont déjà à l'origine de ces tragédies. Les humains répandent de fausses nouvelles. Les humains perdent de l'argent en bourse. Les humains s'entretuent avec des voitures. Les humains deviennent déprimés.

La différence est que les humains sont des cas individuels. Le risque associé à l'IA qui remplace ou entre en concurrence avec l'intelligence humaine est qu'elle puisse être appliquée à l'échelle globale. La portée de l'IA est à la fois massive et instantanée. C'est introduire un risque fondamentalement plus élevé. Un conducteur qui commet une erreur, c'est triste, un conducteur qui commet la même erreur pour des millions de personnes devrait être inacceptable.


Une approche plus responsable envers l'IA est nécessaire. Notre état d'esprit devrait évoluer vers la prévention des risques, la planification de la sécurité et les tests de simulation. Bien que cela défie la philosophie moderne de l'industrie technologique, nous avons la responsabilité de prévenir la majorité des résultats improbables et indésirables avant qu'ils ne se produisent. La bonne nouvelle, c'est qu'avec un bon état d'esprit, nous pouvons empêcher que les scénarios ci-dessus ne se réalisent.