OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Les algorithmes prédictifs sont-ils un risque pour notre libre-arbitre? http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/ http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/#comments Wed, 01 Dec 2010 15:00:29 +0000 Hubert Guillaud http://owni.fr/?p=37595

Nous sommes apparemment aujourd’hui dans une situation où la technologie moderne change la façon dont les gens se comportent, parlent, réagissent, pensent et se souviennent.

Nous dépendons de plus en plus de nos gadgets pour nous souvenirs des choses : comme le disait Daniel Dennet, nous connaissons une explosion démographique des idées que le cerveau n’arrive pas à couvrir.

L’information est alimentée par l’attention : si nous n’avons pas assez d’attention, nous n’avons pas assez de nourriture pour retenir tout ces renseignements.

Or, à l’âge de l’explosion de l’information que faut-il retenir ? Que faut-il oublier ? Pendant des siècles, explique Frank Shirrmacher, ce qui était important pour nous était décidé par notre cerveau : désormais, il sera décidé ailleurs, par nos objets, par le réseau, par le nuage d’information dont nous dépendons. “Ce n’est pas un hasard si nous connaissons une crise de tous les systèmes qui sont liés soit à la pensée soit à la connaissance” : édition, journaux, médias, télévision, mais également université comme tout le système scolaire. Ce n’est pas une crise de croissance, mais bien une crise de sens :

la question est de savoir ce qu’il faut enseigner, ce qu’il faut apprendre et comment. Même les universités et les écoles sont tout à coup confrontées à la question de savoir comment enseigner.

Quelles informations retenir ? Qui va les retenir pour nous ?

À la fin du XIXe siècle, rappelle l’essayiste, “à la rubrique nouvelles technologies, les discussions étaient vives autour du moteur humain. Les nouvelles machines de la fin du XIXe siècle exigeaient que les muscles de l’être humain s’y adaptent. En Autriche et en Allemagne notamment, un courant philosophique réfléchissait à comment changer la musculature ! Le concept de calories a été inventé à cette époque afin d’optimiser la force de travail humain. Au XXIe siècle, on retrouve le même type de question avec le cerveau. Le muscle que nous avons dans la tête, le cerveau, doit s’adapter. Or, ce que nous savons des études récentes montre qu’il est difficile pour le cerveau de s’adapter au multitâche.”

Nous passons de l’adaptation des muscles aux machines à celui de l’adaptation du cerveau aux machines à travers les questions du multitâche ou de l’infobésité qu’adressent à nous les technologies de l’information et de la communication. “Le concept d’informavore qui conçoit l’être humain comme un dévoreur d’information a beaucoup à voir avec nos anciennes chaines alimentaires”, avec la nourriture que vous prenez ou pas, avec les calories qui sont bonnes ou mauvaises pour vous ou votre santé.

L’outil n’est pas seulement un outil, il façonne l’humain qui l’utilise. Du moment que les neuroscientifiques et d’autres se sont mis à utiliser l’ordinateur pour analyser la façon de penser des hommes, quelque chose de nouveau à commencé. Quelque chose qui pose la question du libre arbitre, comme le disait déjà Jaron Lanier, le gourou de la réalité virtuelle. “À l’heure de l’internet en temps réel, la question de la recherche prédictive et du déterminisme devient plus importante.”

Les algorithmes prédictifs vont-ils décider pour nous ?

Frank Schirrmacher imagine que la question de la prédiction – comme la prévisibilité des tendances de recherches que réalise déjà les outils de Google sur la grippe et dans bien d’autres domaines – va avoir un impact important sur la notion de libre arbitre. Google saura avant nous si le concert que nous nous apprêtons à regarder ce soir va nous intéresser, parce qu’il sait comment les gens en parlent, qu’il calcule et analyse non seulement les comportements de la société, mais aussi les nôtres permettant de situer nos comportements dans l’univers social, explique Schirrmacher.

En recueillant de plus en plus de données comportementales et en y appliquant des algorithmes prédictifs de plus ne plus sophistiqués, notre perception de nous-même va se modifier. Alors que pour certains psychologues – comme John Bargh – clament que rien n’est plus important que le libre arbitre, nous sommes confrontés à un avenir où tout va être prévisible par les autres, via le nuage informatique et la façon dont nous sommes liés via l’internet. Les nouvelles technologies, qui sont en fait des technologies cognitives, s’adressent à notre intelligence, à notre pensée et s’opposent désormais à nos façons de penser traditionnelles.

Et Schirrmacher d’en appeler à mieux comprendre les transformations qui se font jours :

Qu’est-ce que Shakespeare et Kafka, et tous ces grands écrivains, ont réellement faits ? Ils ont traduit la société dans la littérature. Ils ont traduit la modernisation dans la littérature… Maintenant, nous devons trouver des personnes qui traduisent ce qui se passe dans la société au niveau des logiciels. Les textes vraiment importants, qui écrivent notre vie aujourd’hui et qui sont, en quelque sorte, les histoires de notre vie sont désormais les logiciels – or ces textes ne sont pas examinés. Nous devrions avoir trouvé les moyens de transcrire ce qui se passe au niveau des logiciels depuis longtemps – comme Patty Maes ou d’autres l’ont fait : juste l’écrire et le réécrire de manière à ce que les gens comprennent ce que cela signifie réellement. Je pense que c’est aujourd’hui une grande lacune. Vous ne pourrez jamais vraiment comprendre en détail comment Google fonctionne, car vous n’avez pas accès au code. On ne nous donne pas l’information pour comprendre.

Notre fonctionnement personnel est-il tant dépendant de notre environnement social?

Parmi les nombreuses réponses que cet article a suscité, signalons, celle de John Bargh, psychologue et directeur du Laboratoire de l’automatisme pour la cognition, la motivation et l’évaluation à l’université de Yale, qui abonde dans le sens de Schirrmacher.

J’ai tendance à moins m’inquiéter de la surcharge d’information sur le plan personnel et individuel qu’au niveau sociétal et gouvernemental. Voilà longtemps que le cerveau humain a l’habitude d’être surchargé d’informations sensorielles (…). Le cerveau est habitué à traiter avec des messages contradictoires aussi, ainsi qu’à gérer et intégrer l’activité de nombreux sous-systèmes tant physiologiques que nerveux – mais comme le montre les travaux de Ezequiel Morsella, cela tout en conservant cette gestion hors de notre vue de manière qu’il nous semble ne pas en faire l’expérience.

Nous sommes déjà et depuis longtemps multitâches. Mais nous le faisons (plutôt bien) inconsciemment, non consciemment. Nous sommes moins doués pour le multitâche conscient (comme parler au téléphone quand nous conduisons) en raison des limites de l’attention consciente. À mesure que nous acquérons des compétences, ces compétences requièrent de moins en moins d’attention consciente (…). Conduire un véhicule nécessite de fortes capacités à être multitâche de prime abord, mais cela devient beaucoup moins difficile parce que notre capacité à être multitâche se déplace avec le temps.

Mais Schirrmacher a bien raison de s’inquiéter des conséquences d’une base de connaissances numérisées universellement disponibles, surtout si elle concerne les prévisions de ce que les gens vont faire. (…) La découverte de l’omniprésence des influences situationnelles pour tous les principaux processus mentaux de l’homme nous dit quelque chose de fondamentalement nouveau sur la nature humaine (par exemple comment notre fonctionnement est étroitement lié et adapté à notre environnement physique et social notamment). Il supprime le libre arbitre qui génère les choix et les pulsions comportementales, les replaçant dans le monde physique et social, sources de ces impulsions.

La découverte qu’il est facile d’influencer et de prédire le comportement des gens est désormais exploité comme un outil de recherche parce que nous savons que nous pouvons activer et étudier des systèmes psychologiques humains complexes avec des manipulations très simples. (…) C’est parce que ces études sont relativement faciles à réaliser que cette méthode a ouvert la recherche sur la prédiction et le contrôle du jugement et du comportement humain, et l’a démocratisé (…). Cela a produit une explosion de la connaissance des contingences des réponses humaines à l’environnement physique et social. Et je m’inquiète comme Schirrmacher, parce que nous construisons si rapidement un atlas de nos influences inconscientes que nous pourrons bien les exploiter via des dispositifs de calculs toujours plus rapides alors que les connaissances s’accumulent à un rythme exponentiel.

Je me connais donc je suis… et c’est tout !

Plus le Web – cette vaste “base de données des intentions”, comme l’a brillamment appelé John Battelle – croît, plus il est difficile de discerner si ces intentions sont les nôtres ou pas, conclut avec raison Nicholas Carr.

Heureusement, tout le monde ne partage pas ce pessimisme. Nick Bilton, professeur à l’université de New York, designer pour le New York Times, répond :

Je suis profondément perplexe devant les penseurs intelligents et novateurs qui pensent qu’un monde connecté est nécessairement un monde négatif. (…) Ce n’est pas notre peur de la surcharge d’informations que fait tergiverser nos égos, mais la crainte que nous soyons en train de manquer quelque chose.

Qu’est-il important ou pas de savoir demande Frank Schirrmacher ?

La réponse est claire et pour la première fois dans nos existences, l’internet et la technologie la rendent possible, estime Bilton : c’est l’importance de l’individualisme. Ce qui est important pour moi ne l’est pas pour vous, et vice-versa. Et l’individualisme est l’incarnation du libre arbitre. Le libre arbitre n’est pas un moteur de recommandation, n’est pas un algorithme de Google ou d’Amazon : c’est la capacité de partager nos pensées et nos histoires avec qui souhaite les utiliser pour que nous puissions en retour utiliser les leurs. Ce qui importe c’est notre capacité à discuter et présenter nos points et de vue et écouter les pensées des autres.

La réponse est forte… mais peut-être un peu courte. En enregistrant toujours plus nos données, en nous permettant de nous documenter plus avant, ces systèmes renforcent certes notre individualisme, mais ils nous rendent aussi plus perméables aux autres, plus conscients de nos influences. Peut-être que cela permettra à certains de mieux y réagir… Mais est-ce que ce sera le cas de tous ?

Crédits photos cc FlickR : splorp, opensourceway, *n3wjack’s world in pixels.

Article initialement publié sur InternetActu sous le titre : “La capacité prédictive de nos systèmes socio-techniques va-t-elle tuer notre libre arbitre ?

]]>
http://owni.fr/2010/12/01/les-algorithmes-predictifs-sont-ils-un-risque-pour-notre-libre-arbitre/feed/ 17