La fin des théories ? edit

17 juillet 2009

L'époque où des données sans théorie n’étaient que du bruit est-elle révolue ? L’analyse de données prend de plus en plus le pas sur les autres formes de connaissance. Les situations de vie ont tendance à être définies comme des problèmes cognitifs, dont la nature est computationnelle ou qui se posent en termes de navigation. Dans ce néopositivisme, non seulement la perception, mais une part essentielle de l'analyse conceptuelle est désormais superflue.

La perception fait partie intégrante de la vie et même si elle est largement façonnée par la culture, elle est fermement ancrée dans le sensorium humain. L’esprit humain fonctionne aussi avec des opérations cognitives conceptuelles ou abstraites. L’expérience et le savoir humains articulent ainsi le sensible et l'intelligible, ce qui peut être éprouvé par les sens et ce qui peut être pensé sans référence immédiate à la réalité tangible. Or les technologies de l’information reconfigurent cette articulation en construisant un environnement qui accorde une importance toujours plus forte au modèle cognitif fondé sur le traitement de données.

Ce changement est induit par de nombreux facteurs technologiques et culturels, dont le principal est la circulation toujours plus massive et plus aisée d’éléments cognitifs disponibles sous la forme de données informatiques, à partir desquelles, via des opérations statistiques, des significations sont construites. Cela se joue au détriment de l'intuition, mais aussi et plus généralement d'une expertise construite à partir de l'observation et de la connaissance du monde.

La disponibilité des données est la marque distinctive de notre époque. Sa croyance est que, correctement lues, les données méticuleusement recueillies chaque jour nous tendraient un miroir dans lequel, pour la première fois dans l'histoire de l'humanité, nous pourrions dévisager notre vrai visage – même si nous ne parvenons pas à le reconnaître.

Dans un contexte au sein duquel technologie et vie quotidienne sont de plus en plus imbriquées, les données peuvent nous dire qui nous sommes, comment notre corps se sent (au-delà de la conscience que nous en avons), mais aussi comment fonctionnent notre société et ses organisations, quels amis choisir et quelles communautés rejoindre, quel voyage faire cette année, quelle assurance souscrire, quels vols sont aujourd'hui meilleur marché, comment investir dans les prochains mois, quel film voir cette semaine, et ainsi de suite. Considérons l’exemple suivant :

« Que pouvez-vous apprendre de 80 millions de planches de rayons X ? Le secret du vieillissement, par exemple. Sharmila Majumdar, radiologue à l’université de Californie (San Francisco), utilise un arsenal de scans pour comprendre comment nos os s'usent de l'intérieur. Cela fonctionne ainsi : un scan passe sur des planches de rayons X à très haute résolution et combine ces images en une structure à trois dimensions. Les résultats sont incroyablement précis ; le balayage numérique d'un simple segment d'os peut peser 30 gigaoctets. Sharmila Majumdar mouline ensuite les données recueillies afin d’identifier la façon dont les trabeculae – la matière dont sont constitués les os - évoluent chez des patients atteints d'ostéoporose ou d'arthrite. En une seule journée, il n'est pas rare que le laboratoire produise presque un téraoctet de données. Les chercheurs agrègent les profils de nombreux sujets, faisant tourner des centaines de téraoctets de données. Sharmila Majumdar espère ainsi apprendre pourquoi certains malades souffrent de pertes importantes de la substance osseuse et d'autres pas. « Nous ne connaissons pas le mécanisme », note-t-elle. « Une fois celui-ci compris, nous pourrons développer des thérapies ». (Thomas Goetz, "Scanning our Skeletons", Wired, juillet 2008).

Cet exemple fournit une bonne illustration d’une tendance selon laquelle le développement des connaissances et plus généralement la construction du sens sont conduits non plus par confrontation d'une théorie à la réalité, mais simplement à partir de commutations et permutations exécutées sur d’énormes masses de données. Les conditions dans lesquelles les données sont ici capturées et agrégées surpassent de loin la capacité de mémoire et de concentration des humains, fussent-ils les meilleurs experts. De surcroît le but principal du scannage des os n’est plus ici de fournir des preuves aux experts : la démarche présentée n’a plus grand-chose à voir avec une pratique médicale consistant à réaliser un diagnostic par la lecture prudente de rayons X. Les scans sont réalisés par millions et une masse vertigineuse de données est obtenue par leur agrégation dans une banque de données commune. Notre mode traditionnel de perception du monde ne s’y retrouve pas, et au demeurant on n’obtiendrait rien en regardant les scans un à un. Ce n’est qu’en les agrégeant qu’on peut espérer comprendre le mécanisme de la perte de substance osseuse, et il serait extrêmement onéreux, très long et peut-être tout simplement impossible de se fonder sur les outils de la perception pour traiter une telle agrégation. La connaissance médicale supérieure qui émergera finalement de ces données dérivera de corrélations statistiques extraites des téraoctets de données produites par des millions de scannages.

Le développement de connaissances par ces moyens ne reconfigure pas simplement la perception, mais des habitudes et des traditions conceptuelles fondamentales. Les permutations statistiques exécutées sur les masses de données sont fondamentalement agnostiques et le processus de découverte est conforme au canon d’un raisonnement inductif. Aucune théorie n’est nécessaire : le modèle, s'il existe, émerge de processus bottom-up de manipulations statistiques de données. Dans le même volume de Wired, Chris Anderson prédit ainsi la fin de la théorie et de la science dans le sens habituel de développement conceptuel fondé sur des preuves empiriques. Du fait de la plus grande disponibilité des données, explique-t-il, ce modèle s’intensifiera dans les années à venir et la connaissance sera enfin dérivée inductivement et exclusivement par les corrélations extraites de grandes masses de données. L'époque où des données sans théorie n’étaient que du bruit est révolue, affirme Anderson. Dans ce contexte néopositiviste, non seulement la perception, mais une part essentielle de l'analyse conceptuelle est désormais inutile. L’analyse de données prend de plus en plus le pas sur les autres formes de connaissance. La « réalité » surgit, après un long détour analytique, de la poussière cognitive de particules computationnelles.

Mais ces développements ne se limitent pas au savoir scientifique. Ils se disséminent à travers le tissu social au moyen d'une infrastructure d'informations toujours plus vaste, qui rend possible le partage et la mise en forme des données. Cela offre permet aux technologies de l’information et de la communication, ainsi qu’aux artefacts culturels et informationnels qu'elles diffusent, de s'infiltrer dans les détails de notre vie quotidienne.

Une conséquence importante de ces développements est la mise en forme et le contrôle technologiques des aspects même les plus futiles de notre existence. Un nouveau quotidien prend forme. Les activités de tous les jours sont de plus en plus appuyées sur des données produites technologiquement. Elles sont conduites à partir d’un ensemble de modules informatiques via Internet ou d'autres réseaux de communications.

Dans ce processus se fait jour un changement furtif mais crucial, qui ne concerne pas que la façon dont les chercheurs appréhendent notre existence, mais dont nous-mêmes la construisons. Les situations de vie ont tendance être définies comme les problèmes cognitifs, dont la nature est computationnelle ou se lit en termes de navigation (que voir ou que faire, comment trouver un film, mais aussi un ami ou un partenaire), et qui peuvent être résolus par des calculs automatisés complexes, exécutés à partir des données et informations que fournissent les technologies modernes et les modes de vie qui leur sont associés.