OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Après 2050 l’espèce humaine s’éteindra http://owni.fr/2012/01/18/lextinction-de-lespece-humaine-apres-2050/ http://owni.fr/2012/01/18/lextinction-de-lespece-humaine-apres-2050/#comments Wed, 18 Jan 2012 11:06:23 +0000 Fabien Soyez http://owni.fr/?p=94469

Hier, l’INSEE communiquait ses derniers relevés de la population française, mettant en évidence une croissance de dix millions d’âmes en trente ans. Projetés sur une très longue période, ces résultats s’avèrent dérisoires. C’est l’un des constats qui s’imposaient hier soir à la Gaité Lyrique, à Paris, lors du troisième “Tribunal pour les générations futures” consacré à la démographie mondiale et à la place de l’homme sur Terre vers 2050. Un procès-spectacle organisé par nos amis du magazine Usbek & Rica.

Comme dans tout bon procès, la parole est à l’expert, place à l’objectivité. Gilles Pison, démographe à l’INED, est appelé à la barre. Chiffres sous le coude, il illustre une “situation exceptionnelle” :

Pour parler du futur, nous devons remonter le passé, 2000 ans en arrière. Nous étions alors 250 millions d’habitants. La population n’a pratiquement pas augmenté, jusqu’en 1800. Entre 1927 et 2012, brusquement, les chiffres ont grimpé en flèche.

À titre d’exemple, entre 1800 et 2000, la population Européenne a été multipliée par quatre. Comme le rappelle l’expert, “quatre bébés naissent par seconde. Comme deux personnes meurent aussi par seconde, cela fait deux personnes en plus chaque seconde.” Et d’expliquer pourquoi ce changement si soudain, à partir du XIXe siècle :

Autrefois, les familles faisaient six enfants en moyenne, mais la moitié mourrait en bas âge, la population n’augmentait donc pas. Avec le progrès technique, la découverte des vaccins, la mortalité des enfants a baissé et un excédent des naissances sur les décès est apparu (…) Les gens se sont rendu compte que les enfants avaient un coût, alors ils ont limité les naissances à deux enfants par couple.

Un nouvel équilibre est alors apparu, en Europe, en Amérique et en Asie. Seule l’Afrique connaît une transition démographique “un peu plus tardive”, mais d’après Gilles Pison, “elle finira elle aussi par rejoindre l’équilibre.”

L’expert nommé par le “Tribunal pour les générations futures” passe maintenant la population humaine dans le simulateur de l’INED et expose les différents scénarios imaginés par les Nations Unies. D’abord, celui de l’extinction, causée par le modèle des familles de très petite taille :

Si les pays en voie de développement copient les pays où la transition démographique est achevée et font moins de deux enfants par femme, de façon durable, la population mondiale, après avoir atteint un maximum de 9 milliards d’habitants, diminuera inexorablement jusqu’à l’extinction à terme.

Passé le scénario “irréaliste” d’un niveau de fécondité constant, où la population atteindrait 134.000 milliards en 2300, Gilles Pison en arrive au scénario “moyen”, celui du retour à l’équilibre, avec une fécondité stabilisée à deux enfants par femme, assez pour assurer le remplacement des générations :

En 2050, la population mondiale atteindrait les neuf milliards et se stabiliserait à ce chiffre. Mais ce scénario ne fait qu’indiquer le chemin si l’on veut que l’espèce ne disparaisse pas. La fécondité baisse partout sur la planète sans qu’il y ait besoin d’imposer le contrôle des naissances. Ce n’est pas la question du nombre des hommes que l’on doit se poser, mais plutôt celle de la façon dont ils vivent. Sommes-nous trop nombreux, ou consommons nous trop ? Ce sera mon dernier mot.

Quittant la barre, l’expert est vite remplacé par le premier accusé. La parole est à Didier Barthès, de l’association écologiste Démographie Responsable. Face à “l’explosion démographique”, l’accusé fait le pari que “la question écologique sera au coeur des préoccupations futures, ou alors le monde deviendra invivable, sans forêt, sans animaux… En fait, nous n’avons pas le choix !” A Démographie Responsable, on milite pour un contrôle des naissances. Didier Barthès s’insurge contre la croisade faite contre les “malthusiens” :

On nous traite de tous les noms, fascistes, eugénistes, antihumains, même. Jamais nous n’avons prôné une quelconque sélection, et on ne propose pas de tuer les gens ! Nous vivons une époque exceptionnelle, nous n’avons jamais été aussi nombreux et ça ne durera pas. “Croissez et multipliez”, c’est une belle phrase, mais qui a été écrite il y a 2000 ans, dans un monde où il n’y avait que 200 millions d’habitants.

Comment éviter le cataclysme ? Pour l’accusé, “on peut changer notre consommation d’énergie, recycler, ça ne changera rien au fait que nous grignotons la planète en consommant de l’espace !” Une consommation qui se traduit par une élimination du reste du vivant :

En 110 ans, nous avons éliminé 97 % des tigres. Voulons-nous d’un monde en bitume, sans vie ? L’humanisme, c’est avant tout ne pas détruire le reste du vivant, tout en assurant la durabilité des sociétés.

En guise de conclusion, Didier Barthès propose de limiter les naissances à deux enfants par femme dans les pays occidentaux. “Si nous redescendons vers une évolution plus douce, si nous allons vers une modestie démographique, nous éviterons l’extinction qui nous guette.”

Sur ces paroles qui résonnent lourdement dans le tribunal, Théophile de Giraud, écrivain et inventeur de la Fête des Non-Parents, fait une entrée fracassante. L’accusé, auteur d’un manifeste antinataliste, s’avance, pose sur le pupitre un biberon rempli de bière. Il sort un pistolet factice, et commence lentement à se déshabiller : “Il faut regarder les choses en face, la vérité est nue !”

Au-delà du show, l’accusé n’oublie pas son discours. Et se met à citer Marguerite Yourcenar, qui répondait à Matthieu Galey, dans Les Yeux ouverts :

L’explosion démographique transforme l’homme en habitant d’une termitière et prépare toutes les guerres futures, la destruction de la planète causée par la pollution de l’air et de l’eau.

Théophile de Giraud est accusé par le procureur Thierry Keller de “haïr l’humain”. Non, répond l’accusé, dans sa nudité originelle : “On ne questionne pas le désir d’enfant, avons-nous le droit de mettre un enfant au monde, et si oui, sous quelles conditions ?” L’écrivain s’attaque au concept de décroissance.

La décroissance économique est impossible, les pays en voie de développement veulent nous rejoindre et ces gens ont le droit de connaître notre confort. Mais la décroissance démographique, c’est possible ! Vive le dénatalisme ! Laissons les femmes choisir, elles préfèrent la qualité à la quantité.

Le plaidoirie de l’accusé a de quoi surprendre : “La planète est plus que trop “surpollupeuplée” ! Cela n’a rien à voir avec le progrès ou le mode de vie, on a l’exemple de civilisations sans technologie qui se sont effondrées, comme l’Île de Paques. Le problème, c’est la quantité de population sur un territoire donné. Nous agonisons sous le poids du nombre !” En brandissant son arme factice, l’accusé conclut :

La natalité est un crime contre l’humanité, vos enfants connaîtront les guerres pour l’accès aux dernières ressources disponibles… Si vous aimez vos enfants, ne les mettez pas au monde !

C’est au tour du procureur de parler. Thierry Keller est rédacteur en chef du magazine Ubsbek & Rica. Dans son dernier numéro, le journaliste reprend la théorie de Christian Godin, philosophe, qui affirme que l’humanité s’éteindra d’elle-même. Cela se passera autour de l’année 2400.

Il n’y aura pas besoin de faire la guerre, nous disparaîtrons par manque de motivation. Cette fameuse explosion démographique, c’est en réalité un mouvement vers la décélération démographique, puis l’extinction. Sommes-nous trop nombreux ? En fait, nous aurions dû poser la question autrement : serons-nous assez nombreux demain ?

Les chiffres parlent d’eux-mêmes. Si en seulement 50 ans, nous sommes passés de trois à six milliards d’individus, les taux de fécondité s’effondrent. En Russie, 142 millions d’âmes, la population descendra à 110 000 en 2100, selon la simulation de l’ONU. Au Maroc, elle passera de 31 millions aujourd’hui à 39 millions en 2050, mais chutera jusqu’à 33 000 habitants en 2200. Scénario digne du roman Les Fils de l’homme, de P.D. James.

Pourquoi cette baisse de fécondité ? Parce que, par peur du lendemain, par hédonisme, nous n’avons plus envie. L’enfant encombre, on pense à aujourd’hui avant demain. Nous ne pouvons pas disparaitre ainsi, avant d’avoir résolu certaines énigmes, d’où nous venons, où nous allons. L’aventure humaine ne doit pas se terminer !

Défenseur de la natalité, Thierry Keller s’adresse alors au jury, quatre personnes tirées au sort parmi le public : “Nous avons encore des choses à faire sur Terre. Jury, vous incarnez les générations futures, je vous demande ce soir de voter non à la question “sommes-nous trop nombreux ?””

Réponse unanime du jury : le non l’emporte. Les accusés, les antinatalistes, sont donc jugés coupables. En apparence, du moins. Se détachant du groupe de jurés, Mathilde, 23 ans, explique son vote :

On devait choisir si oui ou non nous étions trop nombreux sur Terre… Ma réponse, c’était ni oui ni non, je trouve ce choix, entre vivre dans un monde pourri ou s’éteindre doucement, trop manichéen. Les deux solutions sont trop extrêmes.

La jeune graphiste se range “volontiers du côté de l’expert, qui est resté objectif. J’attends de voir, il doit bien exister un juste milieu.” Comme pour lui faire écho, Gilles Pison, en sortant du tribunal, lance :

Le modèle humain n’est pas celui des mouches qui vivent dans un bocal. La population évolue de l’intérieur, c’est avant tout une question de choix. A long terme, notre survie dépendra plus de nos comportements, de notre consommation des ressources, que de notre contrôle des naissances.

Illustration : Nils Glöt pour Usbek & Rica
Photos : Ophelia Noor pour Owni /-)

]]>
http://owni.fr/2012/01/18/lextinction-de-lespece-humaine-apres-2050/feed/ 53
L’équation Futurama http://owni.fr/2011/06/14/lequation-futurama/ http://owni.fr/2011/06/14/lequation-futurama/#comments Tue, 14 Jun 2011 14:55:07 +0000 El Jj http://owni.fr/?p=35166 Le 23 juin prochain, Comedy Central lancera la deuxième partie de la sixième saison de Futurama, la petite sœur des Simpson, créée par Matt Groening et développée par David X. Cohen. La science est un sujet très présent chez les Simpson, mais c’est encore pire dans Futurama, où les clins d’œil à la physique, à l’informatique ou aux mathématiques sont légions, sans parler des références à la culture pop ! Il faut dire que, outre David X. Cohen, diplômé en physique de Harvard et en informatique de Berkeley, la série compte dans ses scénaristes Ken Keeler, diplômé en mathématiques appliquées de Harvard et Jeff Westbrook, diplômé en informatique à Princeton…

La série, diffusée de 1999 à 2003 sur la Fox, et depuis 2008 sur Comedy Central, narre les aventures de Fry, un livreur de pizza très moyen de la fin du XXe siècle, propulsé par erreur en l’an 2999…

Quelques clins d’œils à la physique (Le clone de Farnsworth) , à l'informatique (Le colocataire) ou à l'électronique (Proposition infinity). La géologie (L'enfer, c'est les autres robots) semble un peu moins appréciée...

Aujourd’hui, voici un panorama de tout ce que l’on peut trouver de mathématique dans Futurama ! (ça reste un blog mathématique !)

Nombres taxicab

Quand un nombre apparaît dans Futurama, c’est rarement un nombre choisi par hasard. Le nombre 1729, notamment, apparaît à de très nombreuses reprises :

Bender serait le 1729e robot de M'man (Conte de Noël), lors d'un épisode, l'équipe visite de nombreux univers parallèles, dont le n°1729 (Le bon, la boîte et l'ahuri) et le Nimbus, vaisseau commandé par Zapp Brannigan, a pour numéro BP-1729 (Le Monstre au milliard de tentacules)

Ce nombre est très célèbre pour être un nombre taxicab : un nombre qui peut être exprimé comme la somme de deux cubes, de plusieurs façons différentes (en l’occurrence, 2). En effet,

1729 = 13 + 123 = 93 + 103

Ces nombres sont surtout connus pour faire l’objet d’une anecdote impliquant Hardy et Ramanujan. Alors que le premier rendait visite au deuxième, malade, il lui annonça que le numéro de son taxi, 1729, était plutôt ennuyeux, et qu’il espérait que ce n’était pas un mauvais présage. Ramanujan lui dit que non, c’est un nombre tout à fait intéressant : il est exprimable comme la somme de deux cubes de deux façons distinctes !

Et à propos, le 3ème nombre Taxicab (exprimable comme somme de deux cubes de trois façons différentes) est 87539319 :

87539319 = 1673 + 4363 = 2283 + 4233 = 2553 + 4143

Qui, comme par hasard, apparaît -en petit- sur un taxi... (La grande aventure de Bender)

Il ne faut pas oublier que les numéros de série de Bender et de Flexo (les deux robots tordeurs) sont respectivement 3370318 (=95233 + (?951)3) et 2716057 (=1193 + 1193), tous deux exprimables comme la somme de deux cubes. (Le genre de coïncidence qui font bien rire les deux robots lors de leur première rencontre). [Le moins pire des deux]

Aucun rapport : à la Central Bureaucracy, il existe une salle appelée Cubicle Room 729. On remarque tout de suite que 729 n’est autre que 93, et pour cause, la salle consiste en un cube 9×9x9 de bureaux en open-space.

(Lethal Inspection)

Nombres parfaits

Dans le registre des nombres qui ne sont pas là par hasard, il y a 6421.12 :

La facture de téléphone de Fry (Le Monstre au milliard de tentacules)

Si on fait le calcul, on s’aperçoit que Fry a appelé Dial-a-joke… 8128 fois ! (Soit 254 pages, avec 32 entrées par pages). Un nombre pas du tout aléatoire, puisque c’est un nombre parfait, un nombre égal à la somme de ses diviseurs propres. On note au passage que 8128=254*32 est sa factorisation par un nombre premier de Mersenne.

Irrationnels

A en croire la série, plus personne dans le futur n’aura de problèmes avec les nombres irrationnels…

?2 News, le rendez-vous information de Linda et Morbo de la chaîne ?2 (Un gros tas d'ordures), la célèbre route ?66 (Parasites perdus), la station de police de la ?15e avenue (Astéroïque), et les dés de Mars Vegas (qui n'ont rien d'irrationnels, seulement le plaisir de mettre des radicaux) (Vous prendrez bien un dernier vert?)

De l'huile ?-en-1 (Vol au-dessus d'un nid de robot); la ?ième avenue, qui arrive après la 2e et la 3e (Les actions du futur); le carton d'un supercollider de la marque ?kéa (Astéroïque); ? pour le prix de i, au milieu d'une dizaine d'autres spams sur l'écran d'Amy (La grande aventure de Bender), unique référence au nombre imaginaire i.

Et pour finir avec les références aux constantes mathématiques classique, le nombre e. Le vaisseau de Planet Express passe au travers de séquences de chiffres semblant aléatoires. Il s’agit en fait des décimales de e !

(Prenez garde au seigneur des robots !)

Infinis

L’infini mathématique est aussi source d’inspiration. Sous sa forme analytique, la proposition ? parodie la proposition 8 californienne du 2 mars 2008 interdisant le mariage homosexuel.

(Proposition infinity)

Mais surtout, l’infini apparaît dans le nom du cinéma de New New York : le Loew’s ?0-Plex. A en croire le nom, c’est un multiplexe qui aurait un nombre infini dénombrable de salles (?0 désignant – à peu de choses près – le nombre d’élément de l’ensemble ?)

(Raging Bender)

Solides de Platon

Un des quatre épisode de la saison 4 met en scène la terrible M’man à la recherche de l’anticristal de matière noir, elle-même possédant déjà son cristal. A l’écran, le cristal (rouge) est en forme d’icosaèdre, et l’anticristal (noir) a celle d’un dodécaèdre, qui sont deux solides de Platon (un polyèdre dont toutes les faces sont un même polygone régulier). Mathématiquement, l’icosaèdre et le dodécaèdre sont duaux : on obtient l’autre en reliant le milieu des faces de l’un.

Dans ce même épisode, une scène montre les 3 autres polyèdres de Platon : le cube, le tétraèdre et l’octaèdre.

(Prenez garde au seigneur des robots !)

Il faut aussi parler de Madison Cube Garden, parodie du Madison Square Garden, un lieu récurrent de la série dans lequel se déroule les concerts ou les matchs de Blernsball. Sans surprise, il a la forme… d’un cube !

(Astéroïque)

Topologie

L’image scientifique la plus emblématique de la série reste la suivante :

(Le mal absolu)

Côte à côte, on peut voir de la liqueur de malt Olde Fortran (bière pour robot, en référence au langage de programmation Fortran), de la bière St Pauli Exclusion Principle Girl (référence croisée entre la bière St Pauli Girl et le principe d’exclusion de Pauli, en physique quantique) et surtout, de la bière de Klein, vendue dans des bouteilles de Klein (une surface mathématique ayant la particularité topologique de n’avoir ni intérieur, ni extérieur).

Dans la rubrique topologie, on peut aussi parler de l’épreuve de tordage des jeux olympiques, où un robot tord une poutre intordable en forme de nœud de trèfle (le nœud – au sens mathématique – le plus simple après le nœud trivial)

(L'homme est une femme formidable)

Grands théorèmes

On ne peut pas y échapper : la conjecture de Goldbach, l’hypothèse de Riemann ou la conjecture P=NP sont en l’an 3000 devenus de vrais théorèmes…

(Le Monstre au milliard de tentacules)

Une fois au paradis, Farnsworth et Wernstrom parviennent à démontrer la conjecture de Goldbach (qui dit que tout entier pair peut s’écrire sous la forme de la somme de deux nombres premiers). En détails, on peut lire sur le tableau :

GOLDBACH QUODLIBET (écrit en langage alien, signifiant littéralement en latin “n’importe quoi”)
n2+m < p1+p2 < (n+1)2+2m (une inégalité que l’on peut imaginer faire partie de la démonstration de Goldbach faisant intervenir la conjecture de Legendre (entre deux carrés, on trouve un nombre premier – à ce jour non démontrée) et le postulat de Bertrand (entre un entier et son double, on trouve un nombre premier))

3+5=8 (écrit de manière figurée, un exemple de nombre pair somme de deux premiers)

w’+z’??

?’+?’?2(?+??)

31, 314159 (les premiers nombres premiers que l’on peut obtenir en concaténant les décimales de pi)

?2(x) = 2c2 x/(ln(x))², x??

QED (“CQFD”) Nombre premier martien : ?2 = 170141183460469231731687303715884105727 (un exemple de nombre premier de Mersenne 2p-1, où p est également un nombre premier de Mersenne)

etc…

Le problème P=NP (“un problème peut-il toujours être résolu rapidement par un algorithme ?“) fait une apparition au détour de deux livres dans le placard à balai des locaux de Planet Express.

Ne prêtez pas attention au fait que la tête de Fry est greffée sur le corps d'Amy, et regardez en bas à gauche. Un livre indique P, l'autre, NP (La tête sur l'épaule).

On peut aussi apercevoir l’hypothèse de Riemann (sous une forme démontrée) lors d’un cours sur les coniques :

(The Duh-Vinci Code)

Futurama parle également du théorème Greenwaldien, disant a²+b²>c² (l’homologue du théorème de Pythagore en géométrie sphérique). Il n’existe pas réellement de théorème Greenwaldien, c’est simplement un clin d’œil des scénaristes à Sarah Greenwald, qui a écrit plusieurs articles sur la science et les maths dans les Simspons et dans Futurama.

L’autre équation du tableau, E=9.87sin(2B)-7.53cos(B)-1.5sin(B), est l’équation du temps, utilisé en astronomie et qui mesure “la différence entre le temps solaire moyen et le temps solaire vrai“.

(La grande aventure de Bender)

Le théorème de Ken Keeler

Dans le dixième épisode de la saison 6, les scénaristes y sont allés encore plus fort : un théorème mathématique du domaine de la théorie des groupes, un vrai de vrai, a été inventé pour l’occasion, et sert de dénouement à l’intrigue !

Le professeur Farnsworth invente une machine permettant d’échanger deux esprits entre deux corps. Ainsi, l’esprit d’Amy se retrouve dans le corps de Farnsworth, et vice-versa. La premier soucis, c’est que si un échange est fait, il est impossible de revenir en arrière (Farnsworth et Amy ne peuvent plus échanger à nouveau leurs esprits). Le deuxième soucis, c’est que très vite, tous les personnages de la série utilisent la machine, et qu’une dizaine d’esprits sont dispersés dans tout autant de corps… Comment s’en sortir ?

(The Prisoner of Benda)

La solution est énoncée par les deux mathématiciens-basketteurs de la série, Sweet Clyde et Bubblegum Tate : en ajoutant seulement deux personnes, il est possible de remettre à leur place tous les esprits, quel que soit le nombre d’échanges ayant été faits. Et ils le prouvent :

Oui. Il s'agit bien de la preuve d'un théorème de la théorie des groupes. Entièrement rédigé. Dans une série du câble. (The Prisoner of Benda)

Le théorème montre que si le corps et l’esprit de k personnes sont mélangés, il suffit de deux autres personnes et de k+3 échanges (au plus) pour que chacun retrouve sa place initiale.

Avec l’aide des deux corps de Clyde et Tate, les 9 esprits mélangés parviennent à retrouver leur corps d’origine, en 13 échanges (dans le contexte de l’épisode, on peut montrer que le problème était résolu en 9 échanges, sans l’intervention de deux autres personnes).

Tout le reste

Il me reste encore plein d’images à mettre… Ca ne vous gêne pas si je les mets là, en désordre ?

11 est plus grand que 4. Cette vérité mathématique fait partie de l'ensemble de la connaissance humaine, rassemblée par les cerveaux avant de détruire l'Univers. (Fry : Le pourquoi du comment)

Bender lance une agence de rencontre : discrète (qui n'attire pas l'attention) et discrète (non continue). (La tête sur l'épaule)

?xI?x : une façon mathématique de dire qu'elle aime tout ce qui existe. (Le Monstre au milliard de tentacules)

Dans les tréfonds de l'Internet, toutes les perversions ont leur site, notamment, "Girls proving theorems". (Le mariage de Leela)

De nombreuses célébrités sont caricaturées dans Futurama. Entre autres : Euclide. (The Duh-Vinci Code)

Le nombre 0101100101 (357, en binaire), écrit en lettre de sang sur le mur, ne fait peur à personne. Le reflet dans le miroir est un peu plus effrayant : 1010011010 signifie 666 en binaire. (La voiture garoute)

Et il semble que la série ne va pas s’arrêter là. L’épisode prévu pour le 4 août prochain, intitulé “Möbius Dick“, parle d’une baleine de l’espace à 4 dimensions…

Sources :

Dr. Sarah’s Futurama Math: Mathematics in the Year 3000


Article initialement publié sur le blog “Chou Romanesco, vache qui rit et intégrales curvilignes” sous le titre “The Farnsworth Parabox”.

Photo Flickr CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par repost.no.

]]>
http://owni.fr/2011/06/14/lequation-futurama/feed/ 6
[Vidéo] Les sciences dans les fictions télévisées http://owni.fr/2011/06/08/video-les-sciences-dans-les-fictions-televisees/ http://owni.fr/2011/06/08/video-les-sciences-dans-les-fictions-televisees/#comments Wed, 08 Jun 2011 12:54:14 +0000 13minutes http://owni.fr/?p=35104 Il était une fois une époque où les scientifiques apparaissaient dans les séries et les fictions télévisées seulement habillés en policier ou en docteur. Depuis quelques années, entre Les Simpsons et The Big Bang Theory, toutes sortes de thèmes liés aux sciences peuplent nos écrans. Non seulement là où on les attendait – dans les documentaires, dans les émissions pédagogiques – mais aussi dans les séries ultra-pop. Est-ce bien ou mal ? Mais surtout : pourquoi ?

Après avoir parcouru presque tous les métiers liés à la médiation et à la vulgarisation scientifique, Matteo Merzagora est aujourd’hui directeur scientifique du groupe Traces et directeur de la programmation à l’Espace Pierre-Gilles de Gennes.

Cliquer ici pour voir la vidéo.


Vidéo initialement publiée sur le site de l’Université Paris Diderot sous le titre “Qui veut la peau de Sheldon Cooper ?

Photo Flickr CC PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par ntr23.

]]>
http://owni.fr/2011/06/08/video-les-sciences-dans-les-fictions-televisees/feed/ 1
Carte des collaborations scientifiques à travers le monde http://owni.fr/2011/06/03/la-carte-des-collaborations-scientifiques-a-travers-le-monde/ http://owni.fr/2011/06/03/la-carte-des-collaborations-scientifiques-a-travers-le-monde/#comments Fri, 03 Jun 2011 11:19:28 +0000 Olivier H. Beauchesne http://owni.fr/?p=35073 J’ai été très impressionné par la “friendship map” réalisée par Paul Butler, stagiaire chez Facebook, et j’ai réalisé que j’avais accès à un jeu de données similaire. Plutôt qu’une base de données sur l’amitié, j’en avais une sur les les collaborations scientifiques.

Mon employeur, Science-Metrix, est une entreprise d’évaluation biblométrique. En d’autres mots, nous concevons des moyens de mesurer l’impact et la croissance des découvertes (et publications) scientifiques. Pour cela, nous demandons l’autorisation de réutiliser les données des agrégateurs de revues scientifiques comme “Elsevier’s Scopus” ou “Thompson Reuter’s Web of Science“. Les données que nous avons sont les données bibliographiques accessibles à tous. Nous ne disposons pas des versions complètes des textes, mais plutôt des citations, des auteurs et de leurs affiliations, des résumés, etc.

Grâce à ces données, j’ai pu extraire et agréger les différentes collaborations scientifiques entre villes à travers le monde. Par exemple, si un chercheur de l’université de Los Angeles en Californie (UCLA) publie un article avec un collègue de l’université de Tokyo, cela créé une collaboration entre Los Angeles et Tokyo. Le résultat de ce processus est une très longue liste de villes classées par paires, comme Los Angeles-Tokyo, et le nombre de collaborations scientifiques entre celles-ci. J’ai ensuite utilisé la base de données geoname.org pour convertir les noms des villes en coordonnées géographiques.

Les étapes suivantes sont les mêmes que celles de la “friendship map” de Facebook. J’ai projeté les coordonnées géographiques sur la carte grâce à une projection de Mercator, puis j’ai utilisé l’algorithme Great Circle[en] pour tracer les lignes des collaborations entre les différentes villes. La luminosité de ces lignes varie en fonction du logarithme du nombre de collaborations entre deux villes et du logarithme de la distance entre ces deux villes.

Une carte très haute résolution et zoomable est disponible à cette adresse : http://collabo.olihb.com/.


Article initialement publié sur “Stuff I Made“.

Traduction par Pierre Ropert.

Merci à Olivier Laffargue

]]>
http://owni.fr/2011/06/03/la-carte-des-collaborations-scientifiques-a-travers-le-monde/feed/ 0
Changement climatique: inégalité face aux risques http://owni.fr/2011/05/27/changement-climatique-inegalite-face-aux-risques/ http://owni.fr/2011/05/27/changement-climatique-inegalite-face-aux-risques/#comments Fri, 27 May 2011 13:19:34 +0000 Aïda Nciri http://owni.fr/?p=34989 Non seulement, les « pauvres » doivent mettre la main à la poche pour respecter des politiques environnementales mal conçues, mais ils doivent également se préparer à être les plus exposés aux dommages causés par le changement climatique. En 2010, près des 2/3 des dommages causés par les catastrophes naturelles (soit $85 milliards), n’étaient pas assurés. Soit parce que la catastrophe se déroulait dans un pays dit « en développement » où le système d’assurance est faible, voire, inexistant; soit parce qu’une partie de la population des pays dits « riches » n’avait pas les moyens de s’assurer. La correction de ces inégalités est possible. C’est une question de choix de société (et non pas de marché…).

$128 milliards de dommages – $43 milliards de biens assurés = $85 milliards… Qui paie la différence? Toutes les pertes économiques ne sont pas couvertes par les assurances. Dans son rapport Sigma 2010, la compagnie d’assurance Swiss Re estimait que les pertes des biens assurés, sur l’ensemble des catastrophes, étaient de $43 milliards alors que les pertes économiques globales se chiffraient à plus de $128 milliards, soit 2/3 de plus! Alors, qui paie la différence? Les individus, les entreprises, les collectivités, les États… mais quand cela leur est possible…

Les populations des pays pauvres, sans système d’assurance

Prenons les inondations survenues au Pakistan en été 2010. Elles ont à peine fait la une des médias et mobilisées les donateurs pour secourir les populations.

Pourtant la Banque Mondiale et la Banque Asiatique de Développement évalue à 9,7 milliards de dollars les dégâts et à 20 millions le nombre des victimes (dont près de 2000 morts). Ban Ki Moon, le Secrétaire Général de l’ONU, dans son discours du 19 août 2010 estime même qu’il s’agit d’un « tsunami au ralenti, dont le pouvoir de destruction se consolidera et s’étendra au fil du temps. Qu’on ne s’y trompe pas : il s’agit d’une catastrophe mondiale et d’un défi mondial. » Autant dire que dans cette région pauvre du Pakistan, peu de personnes avaient les moyens d’assurer leur biens. Et encore eût-il fallu qu’il y ait un marché de l’assurance pour ce type de risque… Et l’État n’est pas suffisamment organisé et/ou riche pour indemniser les victimes. Alors forcément, ce sont encore les pauvres qui sont doublement touchés: ils sont les plus exposés et ils sont les moins couverts pour faire face aux catastrophes. En attendant, ces populations touchées ne peuvent qu’attendre, impuissante, une aide humanitaire contingente, qui pallie, bon an mal an, l’absence de système d’indemnisation.

Habitations dévastées au Pakistan lors des inondations de 2010

Les précaires des pays riches sans assurance climatique

Retour en août 2005, Nouvelle-Orléans, après le passage du cyclone Katrina. Le public découvre l’autre visage des États-Unis: celui d’une population pauvre (et en majorité noire), livrée à elle-même, maisons détruites et sans moyen pour partir vivre ailleurs ou reconstruire leur maison. Cinq ans après le passage de l’ouragan, certains rescapés continuent de vivre dans des caravanes fournies par l ’Agence fédérale de gestion des urgences (FEMA)… s’ils n’ont pas été expulsés avant comme l’indique un article du Los Angeles Times repris par la Courrier International.

Si ces populations ont été frappées de plein fouet c’est parce qu’elles n’avaient pas les moyens de souscrire une assurance contre les catastrophes naturelles: selon le bureau du gouverneur du Mississippi, le républicain Haley Barbour, 53 % des occupants des caravanes déployées par la FEMA dans son État gagnent moins de 20 000 dollars [14 700 euros] par an…

Un fonds d’indemnisation des catastrophe naturelles: le principe de solidarité nationale en France. La France a mis en place un régime original d’assurance obligatoire aux catastrophes naturelles institué par la loi du 13 juillet 1982. Ce régime est dit « à péril non dénommé » car il n’existe pas de liste exhaustive des périls (ou aléas) qu’il couvre. Pour bénéficier de ce fonds deux conditions doivent être remplies:

  • l’état de catastrophe naturelle doit être reconnu par un arrêté interministériel, qui en délimite le champ géographique et temporelle ainsi que la nature des dommages couverts par la garantie (article L.125-1 du Code des Assurances)
  • seuls les biens sinistrés des particuliers et entreprises couverts par un contrat d’assurance “dommages aux biens” peuvent bénéficier de la garantie catastrophe naturelle (si les sinistre sont directement liés à la catastrophe reconnu par le décret).

Le régime Catastrophes Naturelles (Cat-Nat) repose sur le principe de solidarité nationale, lui même défini par deux composantes:

  1. son caractère obligatoire: tout contrat d’assurance de dommages aux biens comporte obligatoirement la garantie contre les catastrophes naturelles ;
  2. son caractère égalitaire : un taux unique s’applique à l’ensemble des assurés indépendamment de leur exposition géographique aux risques. Ainsi, le fonds Cat-Nat est alimenté par une prime additionnelle (surprime) calculée à partir d’un taux uniforme sur l’assurance de base ( 12 % pour un contrat multirisques habitation/entreprise et 6 % pour un contrat d’assurance d’un véhicule terrestre à moteur) ;

Ainsi, d‘après un rapport du Commissariat Général au Développement Durable de mai 2010, 8,3 Md€ ont été indemnisés de 1995 à 2006, en France métropolitaine, au titre des évènements naturels reconnus comme «catastrophes naturelles».

Mais ce système n’est pas la panacée car il crée un effet pervers appelé « aléa moral », c’est à dire qu’une personne assurée contre un risque ne prend pas de précautions pour empêcher ce risque ou s’en protéger car elle sait qu’elle sera de toute façon remboursée. Le système français tente donc d’introduire une politique de prévention, notamment au niveau des communes, pour que celles-ci prennent en compte le risque de catastrophes naturelles dans leur plan d’aménagement. Et nous retombons là dans le violent débat qui a suivi le passage de la tempête Xynthia, opposant l’État et les collectivités territoriales, les habitants et les assureurs…

Assurance, solidarité et changement climatique, un trio qui doit apprendre à vivre ensemble pour éviter tensions et injustices. Avec l’ampleur toujours plus grande des dégâts dus aux catastrophes naturelles, l’augmentation de leur intensité lié au changement climatique, et les inégalités de revenus entre pays et populations, nous sommes confrontés à une thématique cruciale du « développement durable », trop souvent minorée. Il s’agit pour le secteur de l’assurance de trouver un modèle économique viable qui ne mette pas sur le carreau les personnes les plus exposées aux catastrophes et les plus pauvres. Une intervention de l’État me paraît donc indispensable pour à la fois favoriser un marché de l’assurance tout en veillant à ce que tous les habitants soient inclus dans ce système, par des mécanismes de solidarité. Cela paraît une conclusion évidente. Mais le système d’indemnisation français Cat-Nat reste une exception dans le paysage mondial…


Article initialement publié sur Globule Vert

Photos FlickR CC : PaternitéPas d'utilisation commercialePas de modification par IRIN Photos et PaternitéPas d'utilisation commercialePas de modification par UNICEF Canada

]]>
http://owni.fr/2011/05/27/changement-climatique-inegalite-face-aux-risques/feed/ 0
Le syndrome de Galilée, point Godwin de la science http://owni.fr/2011/05/26/le-syndrome-de-galilee-point-godwin-de-la-science/ http://owni.fr/2011/05/26/le-syndrome-de-galilee-point-godwin-de-la-science/#comments Thu, 26 May 2011 15:57:30 +0000 Pierre Ropert http://owni.fr/?p=34932 En matière d’argumentation, tout est affaire de point G. Non pas celui d’une éventuelle source de plaisirs suprêmes, mais bien celui du point de non retour lors d’un débat argumenté. Au fameux point Godwin succède ainsi son versant scientifique, le syndrome de Galilée.

Et pourtant elle tourne.

Galilée a beau ne jamais avoir prononcé ces mots (la phrase est apocryphe), il n’en a pas moins été condamné à la prison à vie pour ses théories. Au début du XVIIe siècle, l’astronome italien s’emploie à démontrer que l’Univers ne tourne pas autour de la Terre, mais que c’est au contraire la Terre qui tourne autour du soleil. Une définition qui convient peu à l’Église, persuadée de l’immuabilité de la planète bleue dans un univers en mouvement. Contraint de renier ses travaux, mais reconnu depuis à titre posthume, Galilée devient le symbole du génie incompris.

À ce génie mis au ban auraient donc succédé certaines sommités parmi lesquelles Jacques Benveniste, Claude Allègre, Éric Zemmour (pourtant loin d’être un scientifique), etc. Après tout, si Galilée était un incompris, pourquoi pas eux ?

Galillègre : quand le syndrome contamine Claude Allègre

Vers le point Godwin

L’argument est évidemment spécieux puisqu’il s’agit là d’une analogie douteuse. Une ressemblance ne prouve en rien la validité d’un argumentaire scientifique. Ce n’est pas parce que Galilée a eu raison, que les climato-sceptiques, en se comparant à lui, ont raison à leur tour.

Cette façon de procéder est très proche de la loi de Godwin, énoncée en 1990 par Mike Godwin, qui considère que :

Plus une discussion en ligne dure longtemps, plus la probabilité d’y trouver une comparaison impliquant les nazis ou Adolf Hitler s’approche de 1.

La “loi de Godwin” a depuis très largement dépassé les frontières du web pour s’appliquer également aux débats IRL. Et une telle comparaison (au demeurant souvent accompagnée de la phrase : “les heures les plus sombres de notre histoire”), si elle s’inscrit dans une conversation qui ne traite pas directement de ce sujet, achève souvent de discréditer son auteur.

Dans le même genre, le syndrome de Galilée ressemble étonnamment au Point Godwin. Sur la page wikipédia “Esprit critique”, on en trouve d’ailleurs une définition :

Toute personne qui adhère à une pseudo-théorie la considère presque toujours comme révolutionnaire, et en outre s’estime persécutée.

Processus de victimisation

Parmi les victimes malheureuses du syndrome de Galilée, on retrouve notamment les climato-sceptiques ou les partisans des parasciences (les sciences non reconnues par la communauté scientifique parmi lesquelles : l’astrologie, l’homéopathie, la graphologie, etc.).

Claude Allègre, par exemple, géochimiste et ex-ministre de l’Éducation nationale, de la Recherche et de la Technologie, n’hésite pas à se comparer à Galilée (ainsi qu’à Louis Pasteur auparavant) à l’occasion d’un débat pour l’émission l’Objet du scandale (à environ 8′15”) :

Galilée disait : “Il vaut mieux une personne qui sait, que 1000 personnes qui ne savent pas”. Je pense que la quasi totalité des gens [les enseignants-chercheurs] qui sont là dedans ne savent pas. Tout comme j’étais tout seul contre 3000 personnes -je crois qu’on était 2- au moment de la tectonique des plaques.

Cliquer ici pour voir la vidéo.

Il s’agit ici du processus de victimisation typique : “je suis seul contre tous, donc j’ai raison, la preuve, Galilée était seul contre tous, et il a eu raison“. Claude Allègre connaît pourtant d’autant mieux son sujet qu’il a écrit un ouvrage sobrement intitulé “Galilée”.

Citons aussi Serge Galam, directeur de recherche au CNRS et climato-sceptique, qui dans une tribune adressée au journal Le Monde en février 2007 s’offre le luxe du syndrome de Galilée (qui aurait, selon lui, démontré que la Terre est… ronde) ET d’un point Godwin :

Lorsque Galilée a conclu que la Terre était ronde, le consensus unanime était contre lui, s’accordant sur la platitude de la Terre. Mais lui avait la démonstration de sa conclusion. De façon similaire, à l’époque nazie la théorie de la relativité fut rejetée, estampillée comme une théorie juive dégénérée, avec à l’appui une pétition de grands scientifiques de l’époque, qui signaient du haut de leur autorité établie. Einstein aurait alors dit que des milliers de signatures n’étaient pas nécessaires pour invalider sa théorie. Il suffirait d’un seul argument, mais scientifique. [...]

Mais, attention, lorsque les scientifiques et les politiques font bloc, ça ne présage en général rien de bon… pour les humains ; voir les précédents historiques : nazisme, communisme, Inquisition (les docteurs sont des théologiens). En conclusion, lutter contre la pollution, pourquoi pas ? Mais si le réchauffement est naturel, ce n’est vraiment pas la priorité.

Du côté des parasciences, l’exemple de Jacques Benveniste fait figure d’autorité.  Ce chercheur s’est notamment fait connaître pour ses recherches sur la “mémoire de l’eau“, qui lui ont valu d’être évincé de l’INSERM. Sa théorie fait encore largement débat aujourd’hui malgré de farouches opposants et l’absence de résultats concrets. Elle est cependant défendue par quelques scientifiques (dont Luc Montagnier, prix Nobel de médecine pour sa collaboration à la découverte du VIH) et par les partisans de l’homéopathie, qui voit là la confirmation de l’efficacité de leur (para)science. Le fait est que Jacques Benveniste est probablement un des scientifiques qui souffre le plus du syndrome de Galilée, tant ses recherches sont l’objet de controverses : Luc Montagnier affirme ainsi qu’il s’agit d’une affaire “aussi importante que l’affaire Galilée”  et L’Association Jacques Benveniste pour la recherche organisait, il y a encore peu de temps, une conférence sur le thème “Jacques Benveniste, Galilée des temps modernes”.

Ces comparaisons ne sont en rien une preuve. Elles tiennent plus de l’argument d’autorité que d’une véritable démonstration du bien fondé des recherches de Benveniste.

Si la référence à Galilée est utilisée par quelques scientifiques -plus ou moins crédibles- en mal d’arguments pour défendre leurs hypothèses, ce sont surtout leurs zélés défenseurs qui font l’amalgame. Ainsi on pourrait définir le point Galilée de la sorte :

Plus une discussion en ligne sur un sujet scientifique dure longtemps, plus la probabilité d’y trouver une comparaison impliquant Galilée ou l’inquisition tend vers 1.

Sur les forums, des experts improvisés témoignent en effet de la persécution de la communauté scientifique à l’encontre de leurs Galilée des temps modernes. Une comparaison d’autant plus illogique que l’astronome incarnait le combat de la raison contre la religion. Et non pas de la raison contre la raison, ou de la science contre la science.

Surtout, outre un certain manque de modestie (il faut oser se comparer à Galilée sans le recul de l’Histoire), l’argument ne tient pas, ne serait-ce que sur le plan purement historique.

Un Galilée devenu mythique

Contrairement à l’idée couramment répandue, Galilée était loin d’être incompris. A une époque où les sciences visaient à prouver le bien fondé de la religion, il était difficile de s’éloigner des écrits saints sans passer pour un hérétique. Giordano Bruno, un autre astronome italien, a ainsi été brûlé vif en 1600, pour avoir affirmé que l’univers était infini et qu’il existait donc une infinité de terres et de soleils. Pour parvenir à ces conclusions Bruno s’était appuyé sur les travaux d’un certain Nicolas Copernic.

Travaux qui ont également servi de point de départ aux théories avancées par Galilée. Avant Copernic, il était communément admis que l’univers était géocentrique. Cette idée, développée par Aristote puis par Ptolémée, veut que la Terre soit immobile, au centre de l’Univers, et que les planètes (le soleil et la lune) gravitent autour d’elle en décrivant des cercles parfaits. Une théorie largement acceptée par la religion catholique.

Copernic, lui, développe l’hypothèse de l’héliocentrisme, faisant du soleil un astre autour duquel les planètes, dont la Terre, graviteraient. Son ouvrage clé, «Nicolai Copernici Torinensis De Revolutionibus Orbium Coelestium Libri VI», paraît l’année de sa mort, en 1543, et est dédicacé au pape Paul III. Copernic était un protégé du pape, comme le sera à son tour Galilée avec le pape Urbain VIII. Ce dernier lui commande d’ailleurs un livre, “Dialogue sur les deux grands systèmes du monde“, dans lequel Galilée doit présenter de façon impartial les théories aristotéliciennes et coperniciennes. Mais l’astronome italien profite de son ouvrage pour railler le géocentrisme (le défenseur de cette thèse étant d’ailleurs nommé “Simplicio”) au profit de l’héliocentrisme.

Devant l’ampleur du scandale, le Pape lui même prend le parti des adversaires de Galilée. Avec la suite que l’on connaît : Galilée est poursuivi par l’inquisition, contraint de renier son œuvre et condamné à la prison à vie. Peine immédiatement commuée par le Pape en une assignation à résidence (qui sera d’ailleurs relativement assouplie, le scientifique est autorisé à changer de lieu et à recevoir des visites).

Galilée, contrairement aux croyances, n’était donc pas un laissé-pour-compte. Il comptait au contraire de nombreux soutiens, à la fois dans la communauté scientifique (notamment Johannes Kepler, célèbre astronome allemand) mais également chez les religieux (le Pape) ou les nobles (les Medicis).

L’astronome italien n’a pas tant été jugé par ses comparses scientifiques que par le dogme chrétien (représenté par l’inquisition). Une situation incomparable de nos jours, au vu de la place qu’occupe la religion dans les sciences.

Preuve est faite que les points G (non sexués a-t-on dit) ne sont pas des arguments valides. Peut-être nous intéresserons-nous, une prochaine fois, aux points P (syndromes de Poppeye, du poulpe et de Pangloss).


Photos Flickr CC PaternitéPartage selon les Conditions Initiales par theilr et PaternitéPas d'utilisation commerciale Pas de modification par jennandjon

]]>
http://owni.fr/2011/05/26/le-syndrome-de-galilee-point-godwin-de-la-science/feed/ 14
Les connaissances scientifiques à la carte http://owni.fr/2011/05/24/les-connaissances-scientifiques-a-la-carte/ http://owni.fr/2011/05/24/les-connaissances-scientifiques-a-la-carte/#comments Tue, 24 May 2011 10:18:46 +0000 Raphaël Velt http://owni.fr/?p=34902 Les techniques cartographiques peuvent s’appliquer à toutes les disciplines scientifiques, notamment en biologie où elles servent entre autres à décrire les réseaux trophiques (plus connus sous le nom réducteur de « chaînes alimentaires ») ainsi que les réseaux complexes d’interactions entre molécules. Je m’intéresserai aujourd’hui à leur application à l’épistémologie, c’est à dire l’étude de ce que sont les connaissances humaines.

Les techniques cartographiques peuvent en effet décrire l’état des connaissances scientifiques ainsi que la dynamique de la recherche. Après un historique rapide des cartes des sciences et quelques exemples récents, j’évoquerai les usages et applications de celles-ci.

Une brève histoire de l’organisation des connaissances

Le classement des savoirs est une question philosophique majeure aux origines anciennes, qui prennent racine dès l’Antiquité grecque et la Métaphysique d’Aristote. Mais sautons quelques siècles pour découvrir l’une des premières présentations synthétiques et graphiques, publiée dans l’œuvre phare du siècle des Lumières, l’Encyclopédie de Diderot et d’Alembert. Le Discours préliminaire, publié en 1751 dans le premier tome de l’Encyclopédie, s’achève en effet par une planche présentant le « Système figuré des connoissances humaines », représentant celles-ci sous forme d’un arbre. Celui-ci part d’une racine qu’est l’« Entendement » et de trois branches principales que sont l’Histoire, la Philosophie et la Poésie, qui se divisent elles-mêmes sur plusieurs niveaux, jusqu’à couvrir aussi bien les procédés artisanaux et industriels que les sciences, les arts et la religion.

Système figuré des connoissances humaines

Cette classification vieille de deux siècles et demi semble aujourd’hui quelque peu désuète. Depuis, l’organisation proposée par le bibliothécaire américain Melvil Dewey en 1876 a connu bien plus de succès. La Classification Décimale de Dewey, qui a certes subi quelques aménagements pour accueillir les nouvelles disciplines nées entretemps, est toujours utilisée par les bibliothèques du monde entier pour classer les ouvrages dans les rayons, selon un code numérique à trois chiffres. Ces codes sont organisés de manière hiérarchique, le premier chiffre correspondant à un grand domaine, par exemple 3xx pour les sciences sociales, le second à un sous-domaine plus précis, comme 32x pour les sciences politiques, et ainsi de suite, 327 pour les relations internationales.

Classification Décimale de Dewey

L’un des défauts de cette classification est qu’elle est mal adaptée aux documents qui ne rentrent pas suffisamment précisément dans ses cases. C’est pourquoi les juristes belges Paul Otlet et Henri La Fontaine ont développé la Classification Décimale Universelle, dérivée de celle de Dewey, offrant des possibilités de combinaisons entre codes décimaux.

Mais ces classifications sous forme d’arbres, si elles facilitent l’accès aux connaissances et aux documents, ne rendent pas compte des relations que les disciplines ont entre elles. Par exemple, la hiérarchie de Dewey, qui classe la biochimie dans les Sciences de la Vie avec le code 572, ne traduit pas la parenté de celle-ci avec la chimie organique (code 547).
L’une des premières tentatives de présenter l’organisation des sciences en tenant compte de ces relations a été réalisée par le britannique John Desmond Bernal, physicien et chimiste spécialisé dans la cristallographie, mais également militant politique et auteur de l’un des premiers ouvrages consacrés aux relations entre sciences et société, La fonction sociale de la science.

Dans ce livre paru en 1939, il propose une cartographie hiérarchique partant des fondamentaux théoriques, en haut du schéma, et descendant vers les applications techniques quotidiennes. De gauche à droite de la carte, les colonnes correspondant à trois grands secteurs : le secteur physique (lui-même sous-divisé en physique et chimie) et les secteurs biologique et sociologique. Les blocs du dessin sont reliés par des flèches indiquant les apports théoriques entre disciplines : par exemple, la biochimie reçoit ainsi, entre autres, des flèches provenant de la physique nucléaire et de la chimie des polymères et en retour, alimente la biologie cellulaire et l’industrie des fibres et plastiques.

Carte de Bernal, 1939

Cette carte, comme celle que publiera le chimiste Ellingham (connu également pour ses représentations visuelles des états d’énergie des réactions d’oxydo-réduction) neuf ans plus tard, est basée sur la connaissance que l’auteur a de son champ d’études.

Carte d’Ellingham, 1948

Les débuts de la scientométrie

À côté de cette approche qualitative, une autre approche a commencé à se développer quelques années plus tard, se basant non plus sur une expertise mais sur des données quantitatives collectées, analysées puis représentées visuellement. La mesure des traces de l’activité scientifique, basée sur l’analyse des publications des chercheurs, se nomme la scientométrie. Celle-ci a fourni les bases conceptuelles à partir desquelles seront élaborées les cartographies des sciences que j’évoquerai dans la suite de cet article.

Le britannique Derek John de Solla Price et l’américain Eugene Garfield furent parmi les premiers, dès les années 60, à représenter la recherche scientifique sous des formes de réseaux, en se basant sur les relations de citations entre articles. Garfield s’est notamment inspiré de l’index des citations de Shepard, créé en 1873 pour répondre aux besoins de documentation des juristes américains. Il transposa cet index dans le monde scientifique, fondant l’Institute for Science Information (depuis racheté par Thomson Reuters) et publiant le premier Science Citation Index en 1960.

Le premier exemple de représentation graphique d’un réseau de citations connu date de cette même année et représente les relations entre quinze articles qui, de 1941 à 1960, ont permis le développement de la technique de coloration des acides nucléiques. Pour Garfield, « bien qu’Allen [l'auteur de la représentation] n’en ait pas eu l’intention, le diagramme résultant [le] frappe comme étant un tracé concis, facile à comprendre du développement historique de [cette] méthodologie ».

Réseaux de citations d’Allen, 1960

Un paysage plus large : des réseaux de chercheurs, publications, mots et institutions

Les éléments que la scientométrie peut extraire des publications vont bien au-delà de ces réseaux de citations. À un article scientifique sont en effet rattachés les noms de ses auteurs et leurs institutions, la revue dans laquelle il a été publié, mais également l’ensemble des mots qu’il – ou que son résumé – contient.

D’autres traces des sciences, de plus en plus accessibles avec l’ouverture des universités sur le web, sont les annuaires des établissements de recherche, qui fournissent notamment les listes de leurs chercheurs, classés par disciplines, unités de recherche et/ou projets.

Tous ces types de données peuvent servir comme briques de base des cartographies et constituer les points du paysage, les nœuds des réseaux. Pour les relier et déterminer les distances entre eux, plusieurs rapprochements sont possibles. Le lien de citation d’un article par un autre, que nous avons déjà évoqué, en est un, et fonctionne aussi bien pour relier des articles entre eux que pour relier des auteurs (qui cite qui ?), des institutions ou des revues.

Un autre rapprochement entre deux auteurs peut venir du fait d’être cités tous les deux dans un même article (et non d’être cité l’un par l’autre), formant un lien dit de co-citation. Pour poursuivre cette liste (qui n’est pas exhaustive), on parle de co-occurrences lorsque des mots sont rapprochés. Ces co-occurences fonctionnent à double sens : pour comparer des articles selon leur proximité lexicale ou, en sens inverse, pour rapprocher des mots ou des expressions entre elles, selon le nombre d’articles qui les utilisent.

Changer d’échelle, cartographier toutes les sciences

Après avoir vu un réseau de citation à l’échelle d’une quinzaine d’articles, changeons de dimensions et projetons-nous à l’échelle de l’ensemble des disciplines scientifiques. Quelles propriétés apparaissent si l’on cartographie la totalité des articles répertoriés dans le Science Citation Index ?

Jusqu’au début des années 2000, les technologies ne permettaient pas d’atteindre l’exhaustivité et la précision des cartes les plus récentes : les données n’étaient pas aussi faciles d’accès et les capacités de calcul des ordinateurs insuffisantes ou trop coûteuses pour des quantités de données aussi importantes.

Les premiers essais de cartographies calculées à l’échelle globale contournaient ce dernier obstacle en limitant fortement le nombre d’articles pris en compte à quelques milliers ou quelques dizaines de milliers.

Carte de 1983

Le nombre important d’articles (jusqu’à 2 millions dans une carte publiée en 2007) peut poser des problèmes de lisibilité lorsque chaque nœud de la carte est un article. Tout en gardant les mêmes données de citations entre articles, certaines cartes regroupent les articles par revues (chaque nœud de la carte représentant une revue), voire par groupe de revues, selon la classification de celles-ci en catégories proposées par Thomson Reuters.

Carte de 2008 de Rosvall & Bergstrom

Faire apparaître la structure des sciences

Quelle que soit la méthode employée, une structure générale des sciences semble se dégager, sous une forme circulaire : les sciences physiques sont très liées à la chimie et aux sciences de l’ingénieur qui, connectées respectivement par la biochimie et les sciences de la terre, amènent aux sciences de la vie, puis à la médecine. Les neurosciences connectent celle-ci à la psychologie. De là, le cercle se referme grâce aux sciences humaines et sociales, puis à l’informatique et enfin les mathématiques qui se reconnectent aux sciences physiques.

Carte du consensus de Klavans et Boyack

Ces cartes ne mettent pas seulement en évidence les positions relatives des disciplines, mais également leur poids (qui peut se mesurer au nombres d’articles, de journaux, de chercheurs ou même aux financements que celles-ci reçoivent) : ainsi, la médecine et la biologie apparaissent comme étant les domaines les plus actifs.

Cette mise en évidence de la structure des sciences laisse entrevoir deux types d’usages fondamentaux de ces cartes : un outil pratique pour les chercheurs ainsi qu’un outil de communication. Les cartes permettent ainsi de faire connaître la structure des sciences à un certain nombre de publics.

Des cartes pour comprendre la dynamique des sciences

L’étude de l’évolution de ces cartes dans le temps peut faire apparaître des changements dans l’organisation des disciplines et retracer l’évolution de celles-ci. Ainsi, on peut assister à l’apparition de l’informatique ou voir comment les neurosciences se sont structurées en empruntant à des domaines aussi divers que la biologie moléculaire, la psychologie et l’informatique.

Cartographier les changements

À des niveaux plus précis, ces cartes permettent également de visualiser la dynamique d’une seule discipline, d’un sujet de recherche ou d’un groupe de chercheurs et de savoir, par exemple, quels sujets sont liés entre eux, ou quels scientifiques travaillent sur les mêmes problématiques. La densité ou au contraire la dispersion des points de la carte permettent également de savoir si un sujet de recherche est cloisonné ou si ses spécialistes dialoguent fortement avec ceux de domaines proches.

Les travaux de Chaomei Chen, chercheur en sciences de l’information à l’université Drexel à Philadelphie, visent à utiliser ces cartes pour déterminer des caractéristiques mesurables de ce qu’est la créativité. Celui-ci considère en effet que les articles les plus innovants se repèrent à leur capacité à rapprocher des idées qui jusque là n’interagissaient pas et à modifier fortement la structure de leur discipline, ouvrant de nouveaux axes de recherche. Des articles ayant ces particularités se repèrent facilement sur des cartographies des sciences dans lesquelles la couleur ou la position sur un axe des articles exprime la date à laquelle ils ont été publiés.

Cliquer ici pour voir la vidéo.

Des cartes pour prendre des décisions

Savoir où se trouve l’innovation répond à des enjeux évidents et peut aider à guider des choix économiques et politiques. Les cartographies des sciences répondent également à d’autres questions de politiques de la recherche. Pour mettre en avant l’intérêt de celles-ci, Ismael Rafols de l’université de Sussex, donne l’exemple de l’évaluation des universités, qui jusqu’ici, se fait principalement à partir d’indicateurs chiffrés de leur activité scientifique. Ceux-ci sont notamment à l’origine des polémiques sur le classement de Shanghaï : celui-ci, basé sur un indice calculé à partir de données telles que le nombre d’articles publiés dans Science etNature par une université et le nombre de Prix Nobel qui en sont issus, tend à favoriser les institutions les plus grosses.

Comme alternative, Rafols propose un nouvel outil, nommé Overlay Mapping, basé sur une carte des sciences utilisée comme référence. En superposant les données de l’activité d’une institution (de recherche ou de financement) à cette carte, la diversité et la répartition de cette activité apparaît immédiatement.

Cartographies réalisées avec l’Overlay Toolkit

Cliquer ici pour voir la vidéo.

Les questions de financement de la recherche sont également liées aux problématiques de développement territorial. Certains travaux mettent donc en évidence la relation entre les « territoires virtuels » tracés par les cartographies des sciences et les espaces géographiques. C’est notamment le cas du projet VisIR, réalisé dans le cadre du pôle de compétitivité breton Images et Réseaux par Franck Ghitalla et l’École de Design de Nantes.

Projet VisIR

Un autre exemple d’utilisation comme outil d’aide à la décision est cette cartographie des cours proposés à l’université Brown, conçue pour que les étudiants trouvent les cours les plus pertinents par rapport à leurs centres d’intérêt (la proximité entre deux cours dépend du nombre d’étudiants qui les suivent tous les deux).

Carte des Cours de l’Université Brown

Des cartes pour interagir avec des données

Les cartographies en général sont considérées par les chercheurs comme des outils d’analyse exploratoire de données. Si la vérification des hypothèses continue généralement à se faire avec des méthodes statistiques reposant sur des données chiffrées, ce type de visualisation peut être nécessaire lors de la manipulation de grandes quantités de données pour voir apparaître des structures et y retrouver des éléments particuliers.

Cette exploration a beaucoup à gagner à l’utilisation de technologies interactives : si les sous-domaines des sciences physiques ne sont pas facilement lisibles sur une carte globale des sciences (à moins de l’imprimer en grand format), les possibilités de zoomer et de sélectionner un sous-ensemble d’éléments facilitent la lecture de l’organisation hiérarchique des sciences, du niveau global aux sujets les plus pointus.

En dehors de ce passage d’une échelle à l’autre, les dispositifs interactifs ouvrent une multitude de possibilités de navigation entre les différentes dimensions des cartes de sciences, par exemple passer des articles aux chercheurs et aux mots-clés (c’est notamment ce que permet le projet TINA de l’Institut des Systèmes Complexes de Paris-Île de France).

Cliquer ici pour voir la vidéo.

Des cartes pour tous les publics ?

Ces cartes fournissent ainsi des moyens d’accéder à de nombreux aspects des sciences et leurs applications pourraient servir tous les citoyens, aussi bien pour la communication d’enjeux de société liés aux problématiques scientifiques et techniques que comme supports pédagogiques à l’école.

Carte des Sciences pour Enfants

Mais, de la même manière que tous les conducteurs n’ont pas la même facilité face à une carte routière, la lecture de ces outils n’a rien d’inné. Les cartographies des sciences se multiplieront sans aucun doute dans les années à venir, mais la vitesse et l’étendue de leur adoption dépendront de la capacité des concepteurs de ces objets à dialoguer avec leurs publics pour à la fois rendre les cartes plus simples à lire et éduquer les lecteurs à décrypter leurs significations.

Si les cartes des sciences veulent dépasser la communauté scientifique, leur avenir est tout autant dans les mains de ceux qui connaissent les sciences que chez les designers d’interactions.

Pour aller plus loin…

L’une des collections les plus complètes de cartographies des sciences, où se retrouvent la plupart des cartes évoquées ici, a été réalisée par Katy Börner, chercheuse en Sciences de l’Information à l’Université d’Indiana. Celle-ci se présente sous la triple forme d’un site web, d’une exposition itinérante et d’un beau livre, Atlas of Science. Cette collection se construit par cycles, et de nouvelles cartes seront rajoutées jusqu’en 2014.

A noter également la conférence « Mapping the Digital Traces of Science », organisée par l’Institut des Systèmes Complexes, regroupant des spécialistes de la cartographie des sciences (dont Chen et Rafols, cités dans cet article) et dont vous pouvez retrouver la captation vidéo en ligne.

En français, vous pouvez retrouver les réflexions du chercheur Franck Ghitalla sur son blog nommé l’Atelier de Cartographie.


Article publié sur Knowtex sous le nom “Cartographier les connaissances scientifiques“.

Photos Flickr CC PaternitéPas d'utilisation commerciale par Kotomicreations et PaternitéPas d'utilisation commercialePas de modification par frankfarm.

Illustrations :

  1. Wikipedia Commons
  2. Bibliothèque centrale de Seattle, photo Creative Commons par Frank Farm
  3. John Desmond Bernal, extrait de The Social Function of Science, 1939, reproduit dans Atlas of Science
  4. Harold Ellingham, Natural Science and Technology Chart, 1948, reproduit dans Atlas of Science
  5. Extraite d’Eugene Garfield, Citation Index to Genetics and Science Literature, 1960, reproduit dans Atlas of Science
  6. Extraite de Small & Garfield, The geography of science: disciplinary and national mappings, 1985, Journal of Information Science.
  7. Carte représentant les citations entre les catégories de revues de Thomson Reuters, présentée surEigenfactor.org.
  8. Créée en regroupant les données issues de 20 autres cartes, dont celles des illustrations 3, 4, 6 et 7, issue de Klavans & Boyack, Toward a Consensus Map of Science, Journal of the American Society for Information Science and Technology, 2009
  9. Diagramme présentant l’évolution des catégories de journaux, présentant la création de la catégorie « Neurosciences » et les catégories auxquelles les journaux qui la composent étaient auparavant reliées. Extrait de Rosvall et BergstromMapping Change in Large Networks, 2010.
  10. Cartes réalisées avec l’outil Overlay Maps, présenté sur le site Measuring and Mapping Interdisciplinary Research. Pour aller plus loin, lire Rafols, Porter & Leydesdorff, Science overlay maps : a new tool for research policy and library management, Journal of the American Society for Information Science and Technology, 2010.
  11. Projet VisIR, Franck Ghitalla, INIST-CNRS. Pour aller plus loin, lire la présentation du projet.
  12. Carte des cours de l’Université Brown, créée par Dylan Field, Devin Finzer et Ram Jayakumar
  13. Carte des Sciences pour Enfants, créée par Fileve Palmer, Julie Smith, Elisha Hardy et Katy Börner. Pour aller plus loin sur l’usage des cartes des sciences pour les enfants lire l’article Teaching Children the Structure of Science, des mêmes auteurs.

.

]]>
http://owni.fr/2011/05/24/les-connaissances-scientifiques-a-la-carte/feed/ 6
Vers la transparence des organismes de santé grâce au web? http://owni.fr/2011/05/12/vers-la-transparence-des-organismes-de-sante-grace-au-web/ http://owni.fr/2011/05/12/vers-la-transparence-des-organismes-de-sante-grace-au-web/#comments Thu, 12 May 2011 07:24:00 +0000 Dominique Dupagne http://owni.fr/?p=34815 J’ai reçu le 22 avril un courrier de l’AFFSAPS m’informant d’un effet cancérigène possible de la pioglitazone (Actos®, Competact®) sur la vessie. L’information sur le fond se résumait à ce seul paragraphe :

Des signalements récents ont conduit à envisager un lien entre une exposition prolongée à la pioglitazone et une augmentation du risque de cancer de la vessie, ce qui pourrait remettre en question le rapport bénéfice/risque de la pioglitazone en traitement chronique chez les patients diabétiques.

Des signalements et un doute

Ce qui était présenté comme un simple doute était assorti de la promesse d’une grande étude en cours, réalisée à partir des données de l’Assurance-Maladie et publiée dès l’été 2011. Suivaient des conseils pratiques pour les prescripteurs et leurs patients qui peuvent continuer à utiliser ce médicament jusqu’à nouvel ordre.

Mais quelles étaient donc les données brutes, les faits qui ont généré cette inquiétude ? J’ai posé la question à l’AFSSAPS. Je n’ai eu aucune réponse malgré mon insistance. Je fais pourtant partie du groupe “Généralistes référents” de l’Agence et j’ai adressé mes demandes par email à mes interlocuteurs habituels.

C’est alors que j’ai découvert que la séance de la Commission d’autorisation de mise sur le marché (AMM) avait été filmée, et que la vidéo était en ligne sur le site de l’AFSSAPS. Voici un pas vers la transparence, tel que demandée depuis plusieurs années par Prescrire, le Formindep et les autres défenseurs d’informations sanitaires moins dépendantes des lobbies.

J’ai donc regardé ces deux vidéos de 40 mn chacune. La première concerne un exposé des données scientifiques, essentiellement par des représentants de la Commission de Pharmacovigilance qui avaient émis une recommandation de suspension. La deuxième montre les débats qui ont précédé le vote et la décision finale de la Commission d’AMM. Actuellement, la Commission de Pharmacovigilance est sous la tutelle de la Commission d’AMM qui est libre ou non de suivre ses recommandations.

La première réflexion qui vient à l’esprit concerne la richesse ce ce matériel. Que n’a-t-on pris plus tôt la décision de filmer des débats de cette commission, comme c’est le cas depuis longtemps aux USA !

Certes, la transparence est partielle car nous ne voyons pas les diapositives projetées ni les données qu’elles contiennent, mais les commentaires des orateurs sont riches d’enseignements et surtout, la vidéo traduit beaucoup mieux l’ambiance tendue de la réunion que le compte-rendu écrit avec son verbatim, également disponible.

Il n’existe pas réellement de doute sur l’effet cancérigène de la pioglitazone

Je découvre avec stupeur dans la première vidéo qu’il n’existe aucun doute sur l’augmentation du risque de cancer de la vessie liée à la pioglitazone. Toutes les données convergent : cancers chez le rat, effet cancérigène connu des parents chimiques de la pioglitazone, augmentation du risque de cancer de la vessie constaté dans au moins deux études. L’augmentation du risque est proportionnelle à la durée du traitement et à la dose consommée cumulée. La messe est dite, et nous sommes loin de simples signalements de cas (qui existent aussi, bien sûr). Cette augmentation du risque est de l’ordre de 50%, 270% dans l’hypothèse la plus défavorable issue de ces données. La convergence de ces éléments élimine la possibilité de cas liés au seul hasard.

La lettre que l’AFSSAPS a adressée aux prescripteurs édulcore donc la réalité scientifique du risque en laissant croire que l’affaire se résume à des observations isolées nécessitant une confirmation. J’ai d’ailleurs été abusé par cette formulation dansun premier billet écrit sur ce sujet.

En pratique, sachant que la fréquence habituelle du cancer de la vessie est de l’ordre de 1% sur une vie entière, la prise du médicament pourrait faire monter ce risque à 3%, et plus probablement autour de 1,5% soit 50% d’augmentation du risque.

Ce risque cancérigène étant connu se pose la question de l’intérêt du produit et du risque à en suspendre la commercialisation. La pioglitazone n’est pas le premier médicament à être associé à un risque cancérigène. Celui-ci étant connu, il doit être mis en balance avec le bénéfice du traitement, comme c’est le cas pour le traitement hormonal de la ménopause par exemple.

Un intérêt à démontrer

La question est clairement posée pendant le débat. La réponse est également très claire : l’intérêt de la pioglitazone dans le traitement du diabète reste à démontrer.

Cliquer ici pour voir la vidéo.

C’est ce qui fait dire à un membre de la commission que la pioglitazone est un hypoglycémiant et non un antidiabétique : elle soigne la glycémie mais ne combat pas les conséquences de la maladie, jusqu’à preuve du contraire. Or l’objectif fondamental d’un antidiabétique n’est pas de faire baisser le taux de sucre dans le sang, mais d’éviter les complications cardiaques, neurologiques, rénales ou oculaires de l’hyperglycémie.

Ces deux aspects : risque cancérigène quasi avéré et intérêt thérapeutique nul ou incertain de la pioglitazone, ont conduit la Commission de Pharmacovigilance de l’AFSSAPS, réunie quelques semaines auparavant, à recommander la suspension de sa commercialisatio. C’est le message délivré par son représentant lors de la réunion de la commission d’AMM du 7 avril, en conclusion d’un exposé détaillé des données disponibles.

Cliquer ici pour voir la vidéo.

Le débat qui va suivre cet exposé est très instructif (deuxième vidéo sur le site de l’AFSSAPS, il n’est pas possible de faire des liens directs vers les vidéos).

On prend les mêmes et on recommence

Première surprise, les acteurs principaux de ce débat sont également ceux qui étaient impliqués dans les décisions concernant le Mediator, qui ont de nombreux liens avec l’industrie pharmaceutique, et dont certains ont parlé d’Irène Frachon en terme peu flatteurs dans des échanges d’emails. Je ne développerai pas ce point, à rapprocher de l’actualité récente.

De curieux arguments

Deuxième surprise, les arguments qui viennent appuyer la non-suspension de la pioglitazone, contre l’avis de la Commission de Pharmacovigilance, sont assez étonnants :

  • Certains diabétologues ne prescrivent pas ce produit jugé sans intérêt, mais d’autres le considèrent comme indispensable chez certains patients.
  • Suspendre le produit avant le résultat attendu “de la plus grande étude mondiale” sur le sujet, française de surcroît, ne serait pas positif pour l’image des autorités de santé françaises.
  • Si l’on en croit les études disponibles, les cas de cancers induits par la pioglitazone sont peu nombreux sur une période courte (moins de 10 cancers supplémentaires pour 100 000 patients traités par pioglitazone d’après l’expert) donc rien ne presse.

Voici un exemple significatif de communication favorable au maintien de la pioglitazone :

Cliquer ici pour voir la vidéo.

Les autres médicaments sont pires

L’argument le plus étonnant développé par les experts favorables au maintien de la pioglitazone est sans doute celui-ci :

Si l’on suspend la pioglitazone, elle risque d’être remplacée par d’autres médicaments susceptibles d’être plus dangereux pour les patients.

Voici un extrait du compte-rendu écrit de la séance. L’expert confirme que les éléments disponibles orientent vers une suspension de l’AMM du produit, mais pense qu’il est urgent d’attendre…

“Il faut distinguer deux aspects dans le débat. Premièrement, disposons-nous d’informations importantes qui orientent notre décision vers une suspension de la pioglitazone ? Il me semble que la réponse à cette question est affirmative. Le deuxième aspect est celui de l’immédiateté de la suspension. Le groupe de travail Diabète a été sollicité pour débattre de l’effet d’une suspension immédiate. Il nous a semblé que prendre une décision sans attendre la conclusion d’une étude que nous avons demandée compromettrait la crédibilité de la France vis-à-vis de l’Europe.

D’autre part, si l’on écarte l’avis de ceux qui ne prescrivent jamais de pioglitazone et l’avis de ceux pour lesquels la pioglitazone est irremplaçable, on peut considérer que le retrait de la pioglitazone provoquerait un report de prescription. La plupart des patients auxquels est prescrite la pioglitazone reçoivent déjà de la metformine ou ne la tolèrent pas.
Le report ne peut donc s’effectuer sur la metformine. Il portera sur les sulfonylurées, qui ont causé la mort de plus de patients que d’autres produits, sur les inhibiteurs de l’alpha-glucosidase, dont on sait que l’efficacité est moins grande que les problèmes digestifs qu’ils engendrent, et qui sont considérés comme des médicaments à la marge, et sur les agonistes du GLP1 et les inhibiteurs de la DPP4, médicaments actuellement sous surveillance.
Si nous suspendons immédiatement la pioglitazone, avant même toute décision européenne, nous orienterons les prescriptions sur les agonistes du GLP1 et les inhibiteurs du DPP4, dont on pourrait apprendre, au cours des prochains mois, qu’ils génèrent des pancréatites, des tumeurs du pancréas et des tumeurs de la thyroïde. Notre décision pourrait donc nous être reprochée. Pour ces raisons, notre groupe de travail a estimé inutile de prendre une décision avant que n’intervienne la décision européenne et la publication de l’étude de la Caisse nationale d’assurance maladie (CNAM).”

Il se trouve tout de même (heureusement ?) un autre expert pour répondre :

Je n’entends ici que des commentaires qui tiennent compte du contexte extérieur, notamment de l’Europe, alors que nous sommes chargés de ne considérer que les faits. Or il y a une accumulation de preuves des risques induits par la pioglitazone. M. Marzin, et c’est là le plus important, a souligné que la pioglitazone est un promoteur et que trois mois d’exposition suffisent à l’apparition d’une tumeur. Si ceci est exact, il n’est pas acceptable de laisser des patients être exposés plus longtemps à la pioglitazone. Les preuves des risques, qui ne me semblent pas être compensées par des arguments en faveur du bénéfice de la pioglitazone, sont suffisantes pour que nous prenions une décision aujourd’hui.

Il ne sera pas écouté lors du vote final, majoritairement favorable à la poursuite de la commercialisation de la pioglitazone.

Je n’insiste pas plus sur le fond et je ne commenterai pas le débat. À partir des vidéos complètes ou du compte-rendu, n’importe quel étudiant en médecine de 5ème année ou patient disposant d’un bagage scientifique est à même de comprendre le problème et de se faire une idée correcte de la situation. Il manque juste une copie des diapositives projetées pendant la réunion. Je me permets tout de même d’ajouter que l’étude de la CNAM ne règlera en rien le problème : soit elle confirme le risque, et on aura perdu trois mois. Soit elle n’est pas en faveur du risque, mais ses limites (étude retrospective non randomisée) ne permettront pas d’affirmer l’absence de risque face aux données convergentes actuelles.

L’AFSSAPS doit faire sa révolution 2.0

Je voudrais maintenant prendre ma casquette “Médecine 2.0”, et faire quelques remarques générales qui commencent par des questions.

À quel moment a-t-on pris l’avis des principaux intéressés, les patients ? Sont-il d’accord pour continuer à prendre un médicament qui augmente leur risque de cancer ? Est-il acceptable de ne pas les informer de ce risque ?

À quel moment a-t-on pris l’avis des prescripteurs les plus nombreux, les généralistes ? Pourquoi parle-t-on uniquement pendant la réunion d’un groupe de diabétologues, surtout si c’est pour n’apporter que du vécu subjectif ?

Pourquoi se sent-on toujours obligé en France de prendre des décisions pour les autres : faites-ci, faites-cela, ne faites pas ceci… Pourquoi présume-t-on toujours que le patient et le prescripteur forment un couple d’irresponsables à qui il faut absolument dicter une conduite par des recommandations, des protocoles, des décisions binaires (retrait/maintien).

Nous sommes désormais dans un monde connecté, où chacun s’il le désire, peut accéder à des informations illimitées, pourvu qu’elles soient mises en ligne. Ce qui compte, c’est que l’information soit disponible.

Comme cela a été relevé pendant la séance par plusieurs intervenants, chaque médecin mais surtout chaque patient est unique. Comment peut-on imaginer qu’une décision binaire soit la bonne pour chaque patient ? C’est tout simplement impossible.

Cette nouvelle gestion de crise est très instructive. La Commission d’AMM de l’AFSSAPS n’a pas pris la mesure de la mutation en cours de la société de l’information. Son devoir fondamental n’est plus la production de décisions, comme le dit à tort son président, mais l’analyse de l’information, sa synthèse et sa mise à la disposition de tous. La décision elle-même n’est que l’aboutissement de ce processus et n’est pas toujours indispensable.

Au XXème siècle, il n’était pas question techniquement de permettre à chacun d’accéder aux dossiers sanitaires. Le fonctionnement de l’AFSSAPS était donc hérité d’une longue tradition jacobine : le citoyen délègue la recherche d’information à une élite, à un groupe d’experts qui vont décider ce qui est bien ou mal.

Faute de pouvoir diffuser simplement et économiquement une information exhaustive, seule la décision est portée à la connaissance du public. C’est ce que l’on constate avec la lettre adressée par l’agence à tous les prescripteurs.

À l’heure d’un internet banalisé et accessible quasiment à tous, ce fonctionnement obsolète n’est plus acceptable. La diffusion de l’information ne coûte quasiment plus rien. L’empowerment progressif du patient (mais aussi du prescripteur) ne permet plus de les tenir à l’écart des informations sources. Chacun est en droit de vouloir se forger sa propre opinion, sans être dépendant de l’accès aux données par un guichet qui les interprète et les libère au compte-goutte. Cette élaboration d’opinion peut être confiée à des tiers, mais des tiers librement choisis : les apomédiaires.

Informer le public

Nous ne sommes pas demandeurs de décisions qui nient notre intelligence, mais d’informations précises qui nous permettent de diriger notre vie et notre santé comme nous l’entendons. Les seules limites acceptables à cette liberté sont sociétales et économiques : nous ne devons pas mettre en danger la santé de nos concitoyens par nos comportements ni prétendre grever excessivement les budgets sociaux à notre bénéfice exclusif.

Les journalistes, dont c’est le métier, et les réseaux d’informations qui émergent sur internet, permettent de diffuser largement les synthèses, analyses et mises en perspectives de l’information sanitaire. Ce phénomène touche aussi bien les prescripteurs que les patients.

Le rôle d’une agence comme l’AFSSAPS est de protéger et d’éclairer le public et émettant des synthèses et des opinions,toujours associées à l’information brute. La prise de décisions arbitraires devrait à terme constituer l’exception. Dans un avenir lointain, je ne serais pas surpris que la notion même d’AMM disparaisse au profit d’une simple information du public sur les risques et inconvénients liés à chaque produit.

Dans cet esprit, voici ce qu’aurait pu être la communication d’une Commission d’AMM 2.0 qui aurait d’ailleurs vocation à porter un autre nom (c’est l’esprit qui compte, n’ayant pu obtenir le dossier scientifique, j’ai pu commettre des erreurs sur le fond).

La commission d’AMM s’est penchée le 7 avril sur la pioglitazone, médicament destiné au traitement du diabète non insulino dépendant. Il s’agissait d’évaluer le risque de cancer de la vessie qui serait augmenté par la prise de ce médicament.

Les 10 membres de cette commission ont auditionné le 4 mars les experts du dossier et le laboratoire Takeda qui commercialise la pioglitazone. L’ensemble des auditions et des documents cités ou présentés a été mis en ligne sur le site de l’agence (texte et vidéo).

La Commission d’AMM s’est de nouveau réunie le 7 avril pour auditionner des représentants de patients, de prescripteurs, et différentes personnes qualifiées susceptibles d’éclairer la réflexion des commissaires. Ceux-ci ont ensuite poursuivi leur discussion seuls. L’enregistrement de ces auditions et de la discussion finale sont disponibles sur le site de l’agence.

À la lumière des éléments disponibles portés à leur connaissance, les commissaires ont réalisé la synthèse suivante :

Des éléments convergents rendent hautement probable une augmentation du risque de cancer de la vessie chez les patients traités par pioglitazone. Une étude en cours réalisée à partir des données de l’assurance maladie permettra d’en savoir plus cet été, mais le dossier actuel est suffisant pour considérer prendre ce risque au sérieux.

La quantification du risque est difficile. Les données suggèrent une augmentation du risque comprise entre 50 et 300%, c’est à dire que le risque de cancer de la vessie, de l’ordre de 1% dans la population générale, augmenterait à 1,5%, voire 3% en cas de traitement par pioglitazone. Ces chiffres sont des projections statistiques et ne correspondent pas à un décompte de cas réels.

Comme toujours dans cette situation, la révélation de ce risque doit être mise en balance avec le bénéfice que la pioglitazone apporte aux diabétiques. Les études scientifiques disponibles ne sont pas en faveur d’une action significative de la pioglitazone sur les risques de complications liées à l’augmentation de la glycémie. La Commission de Transparence de la Haute Autorité de Santé a réévalué la pioglitazone et considéré que ce produit n’apportait pas de service médical supplémentaire par rapport aux autres médicaments du diabète.

Dans ces conditions, l’usage de la pioglitazone chez le diabétique ne paraît pouvoir se justifier que dans les situations exceptionnelles d’impasse thérapeutique, après avoir informé le patient du risque encouru. La Commission d’AMM recommande au directeur de l’AFSSAPS de prendre les décisions suivantes
Sur chaque ordonnance initiale prescrivant de la pioglitazone, le prescripteur devra indiquer “avertissement remis ”, matérialisant la remise à son patient d’une copie de ce communiqué.
Sur chaque boîte de produit, dans un délai de 4 mois, la notice devra contenir un encadré ou un texte “Informations importantes sur le risque de cancer de la vessie”. Ce texte indiquera : “Des éléments concordants laissent penser que ce médicament augmente le risque de cancer de la vessie. Parlez-en avec votre médecin ou lisez la synthèse disponible à cette adresse (lien internet et Flashcode ).

Il me semble que ce type d’action ou de communication va plus dans le sens de la démocratie sanitaire, de l’empowerment du patient et du prescripteur ainsi que d’une circulation fluide de l’information.


Article initialement publié sur Atoute.

Photo Flickr CC BY-NC par \!/_PeacePlusOne, CC BY-NC-ND par Ludovic Coquin, CC BY-NC par Gatis Gribusts et CC BY-NC-SA par Povilas.Baranovas.

]]>
http://owni.fr/2011/05/12/vers-la-transparence-des-organismes-de-sante-grace-au-web/feed/ 7
L’humain, moins bon en probabilités que les pigeons? http://owni.fr/2011/05/04/humain-maths-probabilites-pigeons-animaux/ http://owni.fr/2011/05/04/humain-maths-probabilites-pigeons-animaux/#comments Wed, 04 May 2011 06:49:12 +0000 xochipilli http://owni.fr/?p=34766 Vous souvenez-vous du paradoxe de Monty Hall, dont je vous avais parlé dans ce billet ? Il s’agit d’un jeu imaginaire où vous essayez de gagner un cadeau, caché derrière une seule des trois portes fermées se trouvant devant vous. Dès que vous avez choisi une porte, l’animateur du jeu -qui sait où est la bonne porte- vous indique une porte “perdante” parmi celles que vous n’avez pas choisies et, bon prince, il vous laisse la possibilité de modifier votre choix. Le feriez-vous ? La majorité des gens préfère maintenir leur choix initial au motif qu’ils ont l’impression que, de toute façon, ils ont une chance sur deux de gagner. En réalité, ils auraient deux fois plus de chance de gagner s’ils modifiaient leur choix (si vous n’êtes pas convaincus, faites le test vous-même sur ce site).

Cliquer ici pour voir la vidéo.

Le  paradoxe de Monty Hall expliqué dans le film “21″ [en]

J’ai découvert dans l’excellent blog de Sciences Etonnantes que l’on a fait passer à des pigeons un test similaire avec des boîtes opaques dont l’une seulement contient de la nourriture. Et  là, surprise : à force de répéter le jeu, les pigeons finissent par piger le truc et adoptent à 96% la bonne stratégie, alors que, dans la même situation, un tiers des humains ne démordent pas de leur choix initial. Mais après tout, le pigeon n’est-il pas un peu girouette par nature ? Pour valider ou écarter cette explication phylogénétique (quoique je ne sois pas bien sûr de la classification exacte des girouettes), les auteurs ont testé une variante où la meilleure stratégie consiste à ne pas changer d’avis. Et là encore les pigeons sont meilleurs que nous. Quelle honte ! Je suppose que notre contre-performance s’explique par le fait que l’on choisit une stratégie a priori, alors que les pigeons se laissent juste guider par l’expérience. Or, on rechigne naturellement à remettre en cause la stratégie qu’on a choisie, même si l’expérience montre qu’on aurait intérêt à le faire. Nous finissons par être prisonniers de nos préjugés, en quelque sorte, malgré l’évidence.

L’aversion au gaspillage : une irrationalité bien humaine

Il me semble qu’on a affaire ici à un biais très comparable au sunk cost effect (effet des “fonds perdus”, cf ce billet). Si vous achetez un billet pour un concert ou une place de théâtre, le soir venu vous vous sentez obligé d’y aller, même si vous n’en avez plus du tout envie et qu’en plus le spectacle est retransmis à la télé. Vous êtes réticent à l’idée d’avoir dépensé inutilement votre argent alors que l’argent dépensé est de toute façon perdu, que vous alliez ou non au spectacle. La seule décision rationnelle consisterait à rester chez vous si ça vous chante et tant pis pour le billet perdu.

C’est évidemment plus facile à dire qu’à faire, mais les animaux et les jeunes enfants ne connaissent pas ce genre d’atermoiements. Comme pour les pigeons de l’expérience précédente, ils choisissent la stratégie qui sur l’instant leur semble la plus pertinente, même lorsqu’elle contredit leurs décisions ou leurs investissements antérieurs. Il n’y a que nous, pauvres humains, qui ayons des états d’âme à renier nos décisions passées. C’est un classique de la psychologie. Certes on choisit ce qu’on croit être la meilleure solution mais nos choix construisent en retour notre identité et l’on se définit en fin de compte par l’ensemble des décisions que l’on a prises. C’est ainsi qu’on a tendance à considérer nos choix passés comme les meilleurs possibles, non pas parce qu’ils le sont mais du seul fait qu’on les a décidés. Si l’expérience montre l’inverse, la dissonance cognitive qui en résulte nous embarrasse et on est tenté de faire la sourde oreille. L’irrationalité naîtrait ainsi (je mets un conditionnel quand même, tout ça n’est que pure spéculation !) du conflit entre réalisme et estime de soi. Chez les animaux, il n’y a pas de construction d’ego qui tienne donc pas de dissonance cognitive et finalement aucun scrupule à renier ses choix ou ses stratégies antérieures. Il me semble donc naturel qu’ils ne soient sujet ni au sunk cost effect, ni à la psycho-rigidité dans un jeu à la Monty Hall.

Biais cognitifs universels ?

Mais bon, dans bien des cas, nos amis les bêtes sont tout aussi irrationnelles que nous. Rien de tel qu’un petit tour au rayon céréales ou yaourts d’un hypermarché, là où l’on peut rester hagard devant tant de choix. Vous hésitez entre les Bio-super-top (A) à 6€ et les Low-sugar-double-plus (B) à 3€ seulement? Si à ce moment là on vous présente des Bio-beurk (A’) à 8€ (donc plus chers et moins bons que A) normalement ça ne devrait rien changer à votre (in)décision. Et pourtant il y a toutes les chances qu’un tel repoussoir vous incite à choisir des Bio-super-top (A), du seul fait qu’ils supportent mieux la comparaison avec les Bio-Beurks. Ce phénomène de “faire-valoir” semble universel chez les humains et de nombreuses expériences ont été montées pour savoir si les animaux y étaient sujets. On a par exemple mesuré chez des abeilles et chez des geais leurs préférences entre deux dispositifs :

Les chercheurs ont trouvé le même biais chez bien d’autres animaux. Grâce à un dispositif astucieux ils ont même réussi à tester Physarum polycephalum, une espèce d’amibe collective, sorte de slime jaunâtre pas très ragoutant auquel ils proposaient de choisir entre plusieurs plats différents. Les graphiques sont exactement les mêmes que les précédents, alors que Physarum polymachin n’a ni cerveau ni système nerveux central ! Peut-être touche-t-on là une limite structurelle de nos systèmes biologiques ? C’est ce que me suggérait récemment Etienne Koechlin. De la même manière qu’on ne peut faire plus de deux tâches conscientes en même temps, notre système neuronal ne pourrait comparer plus de deux choses à la fois. Un peu comme le fléau d’une balance en quelque sorte.

Fortiche les fourmis !

Pour tester cette hypothèse, des chercheurs sont allés chercher un truc vivant dont les prises de décisions ne dépendraient pas d’un système nerveux classique. Ils ont réussi à faire passer le test de “faire-valoir” à des colonies de fourmis. On sait que les fourmis préfèrent les nids protégés de la lumière et dont l’entrée est petite (donc plus facile à garder). Ils les ont donc forcées à choisir entre un nid à petite entrée mais exposé à la lumière (A) ou bien un nid obscur mais avec une entrée large (B). Puis ils ont observé l’effet d’un troisième choix servant de faire-valoir soit à A (DA) soit à B (DB). Et là miracle…

Pour une fois, les fourmis ne semblent pas perturbées dans leurs décisions par des options supplémentaires non pertinentes. Elles sont les seules qui ne sont pas sensibles au biais de “faire-valoir”. Pour cette épreuve, le système de décision collective des fourmis surpasse donc tous les systèmes de décision individuelle, le nôtre compris ! Un bel exemple de “sagesse des foules”, je trouve, qui pourrait expliquer l’extraordinaire succès évolutif des espèces les plus sociales (hommes, insectes, bactéries, rongeurs…)

Sources :
Arkes & Ayton:The Sunk cost and Concorde Effect (1999)
Shafir, Waite & Smith, Context dependent violations in honeybees and jays (2002)
Latty & Beekman: Irrational decision-making in an amoeboid organism (2010)

Billets connexes :
Les fantaisies de Homo Economicus (2): pour plus d’exemples de sunk cost effect et le numéro 3 sur la difficulté de choisir entre trop d’options
Etrange perspicacité collective sur la sagesse des foules
Un peu de gymnastique mentale sur le paradoxe de Monty Hall

>> Article initialement publié sur le Webinet des curiosités

>> Photos Flickr PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par Litandmore et PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par Yan Pritzker Photo

]]>
http://owni.fr/2011/05/04/humain-maths-probabilites-pigeons-animaux/feed/ 3
S’en griller une pour oublier les photos anti-tabac http://owni.fr/2011/04/29/sen-griller-une-pour-oublier-les-photos-anti-tabac/ http://owni.fr/2011/04/29/sen-griller-une-pour-oublier-les-photos-anti-tabac/#comments Fri, 29 Apr 2011 14:42:46 +0000 Robert Molimard http://owni.fr/?p=34708 Dès son ouverture à la Belle Époque, les foules se pressaient au théâtre de la rue Chaptal à Paris, pour frémir d’horreur, de dégoût, d’angoisse et de plaisir aux spectacles qui rivalisaient d’atrocités, dans un flot d’hémoglobine. Le Grand Guignol a fermé en 1963, ne pouvant soutenir la concurrence des films d’horreur qui arrivaient à faire beaucoup mieux. Le relais est désormais pris par les présentoirs des buralistes.

Le problème à résoudre avant de prendre de grandes mesures spectaculaires est celui de l’effet réel des images réalistes. Répulsion ou attraction ? Quelle action sur les fumeurs, qui sont les porteurs du tabagisme ? En 2000, le Canada a introduit des images-choc sur les paquets de cigarettes. Une enquête téléphonique a été menée 9 mois plus tard auprès de 611 fumeurs. Relancés après 3 mois, 432 ont répondu . Un tiers (36 %) avaient cherché à se cacher les images, en changeant d’étui, mais cela n’avait modifié en rien leur tabagisme ultérieur. Peur (44 %) et répulsion (58 %) étaient les réactions émotionnelles qu’elles suscitaient. Le groupe ayant le plus fortement réagi a déclaré avoir plus fortement “diminué sa consommation, eu l’intention, ou tenté d’arrêter”.

La différence avec les moins émotionnés est faible (R=1,35). Elle n’est statistiquement significative que parce que la tentative d’arrêt, seul critère un peu objectif, a été mélangée dans un critère global avec des données peu fiables, comme la diminution de consommation. De plus ces données sont très sensibles aux effets de suggestion d’une telle étude aux objectifs déclarés. Enfin, les 30 % d’absence de réponses 3 mois plus tard peuvent constituer un tel biais de sélection qu’on ne peut accorder aucune confiance à cette statistique. Ajoutons que seule la comparaison avec un groupe semblable de fumeurs qui n’auraient pas été exposés à ces images aurait pu permettre d’affirmer leur efficacité. En l’état, le pouvoir de conviction d’une telle étude est absolument nul.

Des questions orientées

On ne trouve dans la littérature aucune autre étude sur l’efficacité. Une mise au point de 2009, à l’occasion de l’entrée en vigueur de ces avertissements en Suisse, conclut que ces images sont “utiles” . Mais cette affirmation ne repose que sur cette seule étude canadienne ! Le titre d’une des références qu’elle cite était alléchant, laissant penser que les fumeurs prêts à s’arrêter tireraient bénéfice de ces images . En fait ce travail porte, comme beaucoup d’autres, sur leur impact immédiat subjectif, leur perception, les sentiments qu’elles éveillent. On a demandé aux fumeurs si cela les incitait à s’arrêter, si cela les faisait réfléchir sur les risques. Il en est de même d’une enquête hollandaise auprès d’adolescents . Les questions induisent clairement les réponses. Aucune ne mesure l’efficacité en termes de tentatives d’abandon de la cigarette. L’intention n’est pas l’action.


Une seule voix un peu dissonante s’est manifestée . Demander à une population de fumeurs s’ils ont l’intention d’arrêter recueillera automatiquement un bon pourcentage de velléitaires. Les auteurs soulignent qu’il n’y a aucune preuve que l’introduction de ces avertissements ait augmenté les tentatives d’arrêt. Ils reprochent à l’équipe canadienne d’ignorer les travaux importants sur l’efficacité des communications basées sur la peur. Les fumeurs expriment une forte intention d’arrêter après les messages qui induisent la peur, car ils les espèrent efficaces. Cependant, lorsqu’on leur demande ensuite leurs priorités, celle d’arrêter de fumer devient très faible par rapport à d’autres comportements de santé. Leurs réactions déclarées sont positives, mais les réactions observées sont négatives, y compris les changements de comportement qui sont moindres chez ceux le plus à risque. Les réactions défensives ont pour but de “se libérer de la peur, pas nécessairement des menaces”.

Fumer pour faire fuir l’angoisse

C’est tout à fait ce que j’ai retiré de mes premières expériences voici 50 ans. Si, dans une conversation de salon, on me demandait si c’était bien vrai que le tabac donnait le cancer du poumon, je n’avais aucune peine à décrire un tableau qui n’avait rien de rose. À mon étonnement, la réaction n’était pas de me demander quand et où se tenait ma consultation. En fait, une main atteignait le paquet de cigarettes dans une poche, une cigarette était allumée presque en catimini, mais quelques minutes plus tard tous les fumeurs en avaient allumée une et la fumaient à l’aise, renversés sur leur fauteuil, m’écoutant poliment discourir comme si je faisais un reportage sur des mœurs exotiques.

En fait, ce discours avait suscité leur angoisse. Pas de secours dans la médecine ! Leur seule défense était de se persuader que le cancer ne les toucherait pas, qu’ils étaient génétiquement invulnérables. Mais à quoi reconnaît-on les invulnérables ? Simple : ils peuvent fumer sans risque ! Si je crains d’en allumer une, c’est que je ne suis pas certain de mon invulnérabilité ? Alors je l’allume. Je me prouve ainsi que je me considère réellement invulnérable… et cette cigarette lève l’angoisse. Gribouille, qui se jette à l’eau par crainte de la pluie. Etudiant l’impact des images par le délai de détournement d’attention qu’elles suscitent, des auteurs allemands trouvent de plus que, chez les fumeurs de plus de 20 cigarettes, elles augmentent l’anxiété et le besoin de fumer !

Voici donc encore une de ces mesures démagogiques, populistes, qui ont d’autant plus de succès qu’elles sont moins scientifiquement fondées. C’est une agitation stérile, du bruit pour rien. Les activistes à la psychologie de café du commerce ont conscience d’avoir agi, ce qui va les satisfaire au moins pour un temps. Les hérauts de l’anti-tabagisme pavoisent et crient victoire à la télévision. Mais hélas susciter la peur est encore le plus sûr moyen d’asservir les peuples, et d’accrocher plus fortement le fumeur à sa cigarette, pour le plus grand bonheur des compagnies tabagières, de l’État et de quelques graphistes.

>> Article initialement publié sur Formindep

>> Photos Flickr CC-BY-ND Paternité Pas de modification par Peter Rosbjerg, CC-BY-NC-ND par alphadesigner, et CC-BY-NC-SA par LeRamz.

]]>
http://owni.fr/2011/04/29/sen-griller-une-pour-oublier-les-photos-anti-tabac/feed/ 6