Il est toujours possible d’optimiser les temps de traitement des algorithmes, mais lorsque le volume d’information croît et que, comme nous l’avons vu, les critères liés à son accès sont flous, la vitesse de traitement sera mathématiquement limitée.

Pour concevoir des algorithmes inductifs de célérité, il est nécessaire de penser autrement. L’algorithme devra être contributif et anticipatif. Pour cela l’application informatique devra s’inscrire dans un flux continu d’information et regrouper une collection d’agents chargés de transformer au plus tôt cette information en connaissance exploitable pour les instants suivants.

Cela ne va pas sans conséquence. Par exemple, en informatique décisionnelle il est d’usage de conserver l’information brute afin de conduire des traitements ultérieurs non encore déterminés. En algorithmie inductive de célérité, on préférera transformer l’information d’une forme « en extension » (exemple : conservation de tous les tickets de caisse de monsieur Dupont) vers une forme « en compréhension » (exemple : monsieur Dupont achète un pain tous les lundis et quelquefois un gâteau) plus maniable et moins volumineuse.

Autre conséquence, un algorithme de célérité sera de préférence itératif, afin qu’on puisse le stopper sans perdre de résultats. Ainsi l’information sera rapidement disponible et s’affinera dans un processus continu.

Enfin, un algorithme de célérité s’inscrit dans une logique de contribution et de concurrence avec ses voisins afin d’adapter la production d’information à l’usage qui en est fait. Il dispose d’un mécanisme qui lui permet de se concentrer sur l’essentiel.

Les Big Data ne sont pas une simple question d’échelle. Les technologies qui permettent de les traiter procèdent d’un changement radical dans la façon dont on traite des données. L’induction permet à des algorithmes de reproduire des phénomènes observés en les généralisant au-delà de leur assiette tant qu’ils demeurent efficaces, sans chercher à les modéliser. La célérité permet à des algorithmes de se concentrer sur l’essentiel afin de maintenir l’équilibre entre leur contribution et la concurrence de celle des autres. L’analyse au sein du Big Data relève ainsi clairement de l’épistémologie constructiviste  : chaque système se constitue un référentiel propre qui participe au système global sans jamais connaître précisément ce dernier. Un apprentissage permanent, jamais achevé, qui produit une connaissance imparfaite mais utile. Il n’est pas interdit d’y voir une ressemblance avec le cerveau humain.