Au cours de la seule année 2010, l’esprit humain a créé 600 millions de milliards d’équivalents pages de textes. En 2005, ce n’était, si l’on ose dire, que 75 millions de milliards, selon une étude parue dans The Economist en 2010. Ce déluge de données, ce que les anglo-saxons appellent Big Data, atteint des niveaux jamais vus dans l’histoire de l’humanité et, de surcroît, il est en progression exponentielle. Les cadres en sont submergés et en voient leur travail radicalement transformé.

Auparavant, de la fin des années 50 au milieu des années 70, les données que recevaient les cadres étaient produites par des systèmes informatiques centralisés, puis par des mini-ordinateurs, du milieu des années 70 au milieu des années 90. Ensuite, c’est internet qui a centralisé ces données, du milieu des années 90 aux années 2000. En 1986, 41 % des données étaient produites par des super ordinateurs et 17 % par des systèmes informatiques centralisés (Martin Hilbert et Priscila López, 2011). Dans tous les cas, les données étaient peu ou prou structurées, donc facilement appropriables.

Un changement de volume et de nature dans les flux d’information

Ce n’est plus le cas aujourd’hui. Le manager fait face à une quatrième vague, celle du tsunami Big Data.

Il est confronté à un changement de degré - la masse de données produite explose, comme nous l’avons vu, tandis que la capacité de l’esprit humain à traiter l’information ne s’est améliorée que de 2,8% entre 1980 et 2008 (Roger Bohn et James Short, 2010).

Le manager est surtout confronté à un changement de nature. Les données sont désormais produites par le flot de mails, les multiples appels téléphoniques, les biblioth