Après avoir changé nos habitudes, Sergey Brin, le co-fondateur de Google, est en passe de changer le fonctionnement de la recherche.

Brin est atteint d’une forme de mutation génétique: il est porteur d’un gène particulier qui malheureusement lui donne cinquante pour cent de chance de développer la Maladie de Parkinson. Mais on sait peu de choses sur la maladie, et surtout en l’état actuel de nos connaissances il n’y a pas de traitement. La recherche avance, certes, mais à son rythme. Le processus est lent: hypothèse, analyse, critique, expérimentation, publication… Brin propose d’accélérer tout ça. Grâce à de puissants algorithmes informatiques semblables à ceux qui régissent les moteurs de recherche de Google, il s’agit dans un premier temps de recueillir en amont l’ensemble des données concernant le sujet de recherche, que ce soit des hypothèses, des résultats, des pistes, de simples observations… Cette collecte gigantesque est réalisée au niveau mondial par une sorte de méta-moteur de recherche. Puis le programme est chargé de croiser les corrélations possibles entre ces données et de présenter les résultats les plus intéressants. A partir de ces données, de nouvelles pistes seront étudiées, de nouvelles théories verront le jour, de nouveaux protocoles de recherche seront envisagés.

L’aspirine était connue depuis 1899 pour soulager les douleurs, et comme un puissant antipyrétique. Pourtant il a fallu attendre les années soixante pour comprendre comment le médicament fonctionnait. Et ce n’est qu’en 1988 que l’on observait son effet bénéfique chez les patients qui souffraient de maladie cardio-vasculaire, en recoupant les données observées. C’est presque un siècle de perdu, alors qu’une analyse puissante et menée à grande échelle aurait pu mettre cela en évidence beaucoup plus tôt. C’est à dire que nombre de vies auraient pu être sauvées.

Chaque observation, chaque expérience devient une information à recueillir, puis plus loin à analyser, qui servira peut-être d’autres expériences, et sera la matière d’autres données. Cette observation des données qui découlent de l’action scientifique sur des années de pratique, c’est celle d’une science qui elle même était censée en premier lieu se fonder sur l’observation de la nature: c’est l’avènement d’une méta-science accélérée, potentialisée, de façon exponentielle et à très grande échelle.

Bien sûr, le protocole théorique est inversé. Le schéma classique de toute rigueur scientifique va de l’élaboration de la théorie à la réalisation de l’expérience qui est censée confirmer cette théorie, puis au recueil de données qui découlent du protocole. Ici c’est de l’observation des faits récoltés que naitront les théories aux capacités de vérification les plus probables, par recoupement.

Mais après tout, l’étude des faits servait déjà l’élaboration de nouvelles théories. C’est juste que l’outil dépasse les capacités de jugement et d’analyse humains. Toute une équipe de chercheurs occupés à plein temps n’y suffirait pas pour récolter, recouper, analyser autant de données que l’informatique dédiée.

C’est de ce nouvel outil de recherche que naitront les traitements futurs. Des traitements dont les probabilités de vérification auront été déduits, et non plus observés. C’est une différence qui confisque à faible coût le raisonnement, troqué sur le champs pour la statistique concrète. Ainsi se créent les sciences des sciences, et l’observation de leurs usages. C’est une nouvelle attitude scientifique en quelque sorte, qu’il nous faudra bien évaluer.

 

(source Wired)