A l’heure des réductions budgétaires et de la chasse au gaspillage, la lutte contre la fraude fiscale est plus que jamais un sujet d’actualité pour les États, y compris en France. Combien de milliards par an n’entrent-ils ainsi pas dans les caisses de Bercy ? Selon les sources, les chiffres varient de 40 à 80 milliards, ce qui devient chaque année plus malaisé à expliquer auprès de l’opinion. Si les pouvoirs publics sont bien conscients du problème, moins d’un quart de cette somme réussit à être récupérée. Dès lors, la question se pose de savoir si les Technologies de l’Information (IT) peuvent apporter une aide dans cette lutte. Oui, si l’on en croit les défenseurs du Big Data, et certaines initiatives tendent à appuyer leur thèse.
Une avalanche de données à exploiter…
Mais commençons par le commencement. Le Big Data est né de la croissance exponentielle des données accessibles sur Internet et les réseaux mobiles. En dix ans, les unités de mesures ont défilé, passant du mégaoctet au gigaoctet, puis au téraoctet et enfin au péta-octet. Aujourd’hui, même le pétaoctet ne suffit plus et l’exaoctet a fait son apparition dans la presse spécialisée pour désigner le contenu des clouds. Sachant qu’un rapport de mille existe entre chaque unité, le facteur de croissance sur une aussi courte période donne le vertige. Le Big Data est ainsi né de la volonté des entreprises comme des institutions étatiques d’exploiter les éléments pertinents contenus au sein de cette quantité astronomique de données. Dès le XVIème siècle, le philosophe anglais Francis Bacon avait affirmé « la connaissance, c’est le pouvoir », un principe plus que jamais d’actualité. Sous le terme générique de Big Data ont donc été groupées l’ensemble des technologies permettant de stocker, d’exploiter et de corréler les masses d’informations issues du monde de l’IT.
…pour mieux contrôler
Or justement, l’une des plus grande difficulté dans le domaine de la fraude fiscale vient de la disproportion entre les données à disposition des services de contrôle et le nombre d’agents qui les composent. Le travail à échelle humaine ne permettant plus depuis longtemps d’identifier efficacement les mauvais payeurs au milieu de la masse des contribuables, les ordinateurs ont été mis à contribution afin d’accélérer les temps de traitement et fournir des mécanismes efficaces permettant de rapprocher automatiquement entre eux les différents signaux d’alertes. Plusieurs initiatives ont ainsi vu le jour en Europe : lutte contre l’escroquerie à la TVA en Belgique via la modélisation automatique des réseaux, dispositif Connect en Angleterre pour détecter les incohérences dans les déclarations fiscales, système nommé Redditometro en Italie pour comparer montants d’imposition et trains de vie constatés. Dans chacun de ces cas, deux principes-clés reviennent : quantité de données et corrélation multi-sources, autrement dit les fondamentaux du Big Data.
Toutefois, considérer le Big Data comme le Graal de la lutte contre la fraude fiscale serait aussi hasardeux qu’erroné. Indépendamment de toute considération technique, deux problématiques majeures viennent contrecarrer ces projets. La première est inhérente au principe même d’un contrôle : croiser des informations issues de sources distinctes et hétérogènes implique de disposer de structures administratives et de procédures aptes à alimenter de manière fiable et permanente une plate-forme de Big Data. La seconde difficulté provient du respect de la vie privée, que de tels projets peuvent contrecarrer. Dans le cadre du projet redditometro par exemple, le suivi des trains de vie des particuliers a provoqué de vives contestations. Si ces technologies paraissent pleines de promesses, une question reste sans réponse : « Le Big Data sera-t-il le Big Brother de demain ? ».
FOCUS : les réponses techniques
Les initiatives liées au Big Data exigent des ressources de puissance informatique qui doivent croitre aussi rapidement que les données à traiter. Dans ce cadre, il est intéressant de se pencher sur l’annonce faite au mois de janvier par IBM concernant la sortie de son dernier né dans la gamme mainframe : le Z13. Trois ans après la sortie du modèle précédent et une décennie après la vente de sa branche PC à Lenovo, la firme américaine confirme ainsi qu’elle ne compte pas arrêter la lucrative activité que demeure le System-Z.
Cette fois encore, nous ne sommes pas déçus en terme de sizing et le Z13 se pose en digne héritier des modèles précédents, affichant des mensurations dantesques : les ingénieurs de Big Blue ont ainsi présenté plusieurs innovations technologiques pour une capacité de traitement finale avoisinant les 2,5 milliards de transactions quotidiennes. Par ailleurs, IBM annonce que le Z13 est compatible avec Hadoop, l’un des framework les plus répandus dans le monde Big Data.