Nick Bostrom : « Le but ultime de l'intelligence artificielle doit être la disparition du travail »
C’est une des thématiques chères à notre blog. Aussi voici un excellent article sur le possible futur des intelligences artificielles, l’informatique, la robotisation, les technologies nanos, et leurs impacts sur notre société. C’est tout l’enjeu du débat, savoir si nous subirons cette évolution technologique ou si nous en tirerons partie. De vous à moi, vu comment c’est parti, je pense que nous allons droit vers une belle dystopie à la William Gibson, et depuis un bout de temps. Lisez Neuromencien et ses autres livres pour vous en convaincre.
Le point positif là-dedans ? C'est qu'en anticipant les choses nous pouvons avoir un impact sur elles. Aussi, il ne tient qu'à vous que cela change, et que vous ne soyez pas transformé en cyborg pour vous accoupler avec des ordinateurs 8h par jour au boulot...
L'avenir peut être fantastique, tout dépend de vous, de nous... Et surtout pas des multinationales... Un ordinateur c'est bête et méchant, ça fait ce qu'on lui dit... et ça n'a pas d'état d'âme.
Enfin pour l'instant... ; )
Notez toutefois l'exception des algorithmes de High Frequency Trading, qui ont de doux noms, et des profils bien spécifiques, dont certains ont toutes les caractéristiques du psychopate...
Amicalement.
Folamour
+ VIDÉO. Philosophe et professeur à Oxford, Nick Bostrom est l’auteur de « Superintelligence », un essai alertant sur les risques d’une intelligence artificielle supérieure à l’homme. Dans un entretien aux « Échos », il estime cependant que les bénéfices de l’IA seront probablement supérieurs aux dangers.
Le mois dernier, un sondage mené auprès d'experts de l'intelligence artificielle affirmait qu'il faudrait au moins quarante-cinq ans pour que les machines puissent accomplir toutes les tâches aussi bien que les humains. Qu'avez-vous pensé de cette étude ?
Ce que l'on constate, c'est qu'il n'y a pas de consensus : certains chercheurs pensent que cela arrivera dans dix ans, d'autres que cela prendra plusieurs centaines d'années, ou que cela n'arrivera jamais. Il y a une distribution assez large des opinions, même chez les experts. Je pense que le véritable enseignement, c'est que personne ne sait vraiment quand l'intelligence artificielle dépassera celle des humains. Donc nous devons accepter cette incertitude.
A titre personnel, pensez-vous que la route sera encore longue ?
Je pense que nous n'en savons rien. Donc, nous devons considérer ce sujet à la fois sur un temps court et sur un temps long.
Qu'est-ce qui vous a poussé à vous pencher sur les questions éthiques posées par l'IA ?
Je crois que le problème est à la fois éthique et technique : si, un jour, vous réussissez à mettre au point un système bien plus intelligent que l'homme, comment garantir que, d'un point de vue technique, il fera réellement ce qu'il est censé faire ? Pendant longtemps, ce sujet a été négligé. Dès les premiers temps de l'intelligence artificielle, dans les années 1950, le but n'a pas seulement été de faire accomplir aux machines des tâches très précises, mais de reproduire la forme d'intelligence générale qui caractérise l'esprit humain. Pourtant, il y a eu étonnamment peu de réflexion sur ce qui se passerait si nous y parvenions vraiment.
Nick Bostrom à la conférence USI (Paris) le 19 juin 2017
Est-ce parce que les chercheurs estimaient qu'ils ne réussiraient jamais ?
On peut croire que les chercheurs pensaient que le but ne serait pas atteint, ou pas avant des centaines d'années. En réalité, les pionniers de l'IA étaient très optimistes, ils pensaient que cela ne prendrait qu'une dizaine d'années. Mais, malgré cela, ils ne s'exprimaient pas sur les conséquences...
En plus d'un demi-siècle d'existence, l'intelligence artificielle a connu plusieurs « hivers », ces périodes où les recherches se sont quasiment arrêtées parce que les espoirs du départ étaient déçus. Pensez-vous que le domaine est durablement sorti de l'hiver ?
Aujourd'hui, c'est plutôt le printemps ou l'été. Est-ce que cela sera suivi d'un nouvel hiver ? J'en doute, parce que les technologies actuelles d'IA sont suffisamment bonnes pour avoir déjà un nombre important d'applications. Je pense que le secteur continuera à attirer des investissements conséquents à cause des besoins pour les moteurs de recherche, la reconnaissance de la parole ou les voitures autonomes. Il y a beaucoup de cas où soit les applications commerciales existent déjà, soit elles existeront dans très peu de temps.
En septembre dernier, Google, Amazon, Facebook, IBM et Microsoft ont créé une organisation, Partnership on AI, dont le but est de s'assurer que les progrès de l'IA seront bénéfiques à l'humanité. L'institut que vous dirigez a rejoint ce partenariat au mois de mai. Pourquoi avoir attendu autant ?
A l'origine, il s'agit d'une initiative de ces grands groupes, qui se sont d'abord organisés pour travailler ensemble sur ces sujets. Ce n'est que dans un second temps qu'ils se sont ouverts à d'autres organisations. Mais nous discutons de ces sujets avec certains d'entre eux depuis plus longtemps.
Pensez-vous qu'un partenariat des entreprises qui investissent le plus dans l'IA soit un moyen approprié de garantir une utilisation éthique ?
Je pense que c'est une étape positive que l'industrie réfléchisse à ces sujets. Bien sûr, ce ne doit pas être le seul forum où l'humanité discute des implications de l'intelligence artificielle - les universités, les instituts, les gouvernements, les ONG doivent aussi s'en emparer.
Vos craintes sur la menace qu'une superintelligence ferait peser sur l'humanité ont été reprises par de nombreuses personnalités, dont Stephen Hawking. Vous considérez-vous comme un lanceur d'alerte ?
Non. En fait, je suis plutôt optimiste sur les bénéfices à attendre de l'intelligence artificielle. C'est vrai que beaucoup de pages de mon livre sont consacrées à ce qui pourrait tourner mal, mais c'est parce que nous avons besoin de comprendre de façon précise où se trouvent les dangers, afin de pouvoir les éviter. A moyen terme, les aspects positifs sont très nettement supérieurs. Et, à long terme, les deux scénarios, positifs ou négatifs, sont possibles.
A moyen terme, il y a cependant la crainte que les machines assurent de plus en plus de tâches jusqu'ici réservées aux humains, et que cela détruise de l'emploi. Est-ce un thème qui vous intéresse également ?
Je pense que le but ultime doit être la disparition totale du travail. Ce que nous voulons faire, c'est remplacer le besoin pour les humains de travailler, pas seulement grâce à l'intelligence artificielle mais grâce à l'automatisation dans son ensemble - si nous avons inventé la charrue, c'est pour arrêter de nous briser le dos.
Mais, aujourd'hui, l'IA est vue comme l'automatisation du cerveau, ce qui peut sembler effrayant pour des cols blancs. Personne ne veut avoir à se briser le dos pour vivre, mais un journaliste ou un philosophe n'ont pas forcément envie que des machines fassent le travail à leur place...
Je crois qu'il y a deux aspects. Si les machines peuvent se substituer au travail humain partout dans le monde, comment obtiendrons-nous un revenu ? Il y a un certain nombre de réponses à cette question : vous pouvez taxer les machines, vous pouvez y investir du capital qui croîtra rapidement durant la transition et générera une rente, vous pouvez recevoir des aides de l'État...
Le deuxième aspect concerne l'estime de soi. La dignité humaine est intimement liée au fait de subvenir à ses besoins, de gagner son pain. Je pense que c'est quelque chose qu'il faudra repenser dans ce monde futur où nous n'aurons plus besoin de travailler pour vivre. Je pense qu'il faudra repenser l'éducation, qui est conçue pour fabriquer des engrenages productifs de la machine économique. Peut-être que, dans le futur, il faudra former les gens à faire un usage de leurs loisirs qui ait un sens, à maîtriser l'art de la conversation, à avoir des hobbys qui rendent leur vie plus agréable.
C'est un sujet auquel il faut commencer à réfléchir dès maintenant, à un moment où les machines commencent à devenir plus intelligentes et plus productives...
Oui, mais nous n'y sommes pas encore. Je ne suis pas convaincu qu'actuellement ces technologies d'intelligence artificielle aient un grand impact sur le marché du travail, je pense que tout cela est encore une possibilité dans le futur. Il faut être attentif à la différence entre la capacité des machines à effectuer certaines tâches et leur capacité à occuper certains emplois. Si vous prenez l'exemple de la voiture autonome, imaginez un véhicule qui conduirait tout seul dans 99 % des cas : il aura toujours besoin d'un chauffeur. Maintenant, imaginez un modèle autonome dans 100 % des cas. La différence peut sembler minime, mais l'impact sur le marché du travail est énorme : soit vous avez besoin d'un chauffeur humain, soit vous n'en avez plus besoin. Et il faudra plus de temps qu'on ne le pense pour arriver au point où les machines font l'ensemble des tâches et bouleversent vraiment le marché du travail.
Il y a vingt ans, vous avez cofondé la World Transhumanist Association. Depuis, le mouvement transhumaniste est devenu très médiatisé et très controversé. Vous considérez-vous toujours comme un transhumaniste ?
Je n'ai pas tendance à me définir comme transhumaniste, car ce terme est utilisé par des gens très différents dans des acceptions très différentes, ce qui crée de la confusion. Ce que je pense, c'est que, dans le futur, la technologie ne servira plus seulement à transformer le monde extérieur, mais qu'elle offrira des possibilités de transformer la nature humaine en étendant nos capacités humaines. Si nous imaginons ce que seront les humains dans un million d'années, il serait très bizarre pour moi que nous soyons encore ces bipèdes enfermés dans des petites voitures, avec un cerveau de 1,5 kilo pas très différent de celui du singe !
Bio Express :
Né en 1973, Nick Bostrom a suivi des études de physique et de neurosciences avant d'être diplômé de la London School of Economics.
En 1998, il a fondé avec le philosophe David Pearce la World Transhumanist Association, une ONG favorable à un usage éthique des nouvelles technologies pour améliorer l'espèce humaine. Il a depuis pris ses distances avec le mouvement transhumaniste.
Professeur à la faculté de philosophie d'Oxford, il y a fondé en 2005 le Future of Humanity Institute.
Son essai "Superintelligence : Paths, Dangers, Strategies" (Oxford University Press, 2014) a connu un retentissement mondial.
Il a notamment inspiré une lettre ouverte sur les enjeux éthiques de l'IA signée par 8000 personnalités, dont Stephen Hawking et Elon Musk, rendue publique en janvier 2015.
Le 19 juin dernier, Nick Bostrom était l'invité de la conférence USI (Unexpected Sources of Inspiration) à Paris.
Source(s) : Les Echos.fr
Informations complémentaires :
Crashdebug.fr : Des ex-ingénieurs de Google annoncent le lancement de « Otto » : un camion sans conducteur totalement autonome, actuellement déjà en test sur les routes du Nevada…
Aucun commentaire:
Enregistrer un commentaire