2 réflexions au sujet de « Big Data: Que fait-on de nos données ? »

  • 16 mars 2015 à 17 h 44 min
    Permalink

    Un reportage que j’avais vu et qui est très loin de me satisfaire car il n’explique rien sur ce qu’est le “Big Data” pour se focaliser sur l’aspect juridique de la protection des données.

    Résumons pour mieux comprendre:

    Le reportage parle de zettaoctet sans dire à quoi cela correspond. Un octet regroupe 8 bits codant une information. Dans ce système de codage, s’appuyant sur le système binaire, un octet permet de représenter 2 puissance 8 valeurs différentes, c’est-à-dire 256 au total. Les multiples due l’octet sont:

    – kilooctet (Ko) = 10 puissance 3
    – Mégaoctet (Mo) = 10 puissance 6
    – Gigaoctet (Go) = 10 puissance 9
    – Téraoctet (To) = 10 puissance 12
    – Pétaoctet (Po) = 10 puissance 15
    – Exaoctet (Eo) = 10 puissance 18
    – Zettaoctet (Zo)= 10 puissance 21
    – Yottaoctet (Yo)= 10 puissance 24
    Ce sont les préfixes des valeurs du SI(Système International) en sachant que les préfixes binaires sont écrits différemment(cela va du kibioctet= 2 puissance 10 à l’Yobioctet = 2 puissance 80).

    Pour mieux concrétiser ces valeurs, prenons un livre, bien que cela dépend de la taille du livre!Alors prenons le problème de manière inverse: Si 1 Go = 1024 Mo, soit 1’048’576 ko, soit 1’073’741’824 octets, alors une ligne de caractères fait environ 80 octets, donc 13’421’773 lignes. Sachant qu’une page fait environ 50 lignes, ça fait 167’772 pages. Disons qu’un livre fait 300 pages en moyenne, ça fait environ 559 livres … Or un To, c’est 1024 Go, soit environ 572’662 livres … Tout de suite on voit apparaître un avantage comme un problème: l’avantage est économique en temps et rapporte beaucoup d’argent à une entreprise privée. Le désavantage? La bibliothèque, elle, n’a aucun avantage et laissera tomber ses livres… pour du “cloud”(un vague brouillard sans savoir où l’information se trouve…) Là toute notre culture et notre savoir millénaire disparaissent dans des “clouds”. On sait depuis que l’homme existe que l’information donne l’avantage incontestable à celui qui la possède… surtout en pleine guerre asymétrique de l’information et du renseignement(“Intelligence” pour les anglo-saxons)dont l’avantage est incontestable pour les USA.

    Pour vous donner une idée, Twitter générait en janvier 2013, 7 teraoctets de données chaque jour et Facebook 10 teraoctets… dont pas mal à mettre directement dans la poubelle de la culture et de l’Humanité! C’est en sciences que le Big Data a le plus de sens(génomique, épidémiologie, compréhension du fonctionnement du cerveau[EPFL], CERN, météo, écoépidémiologie, etc.). Le radiotelescope “Square Kilometre Array”(= Réseau du Kilomètre carré) par exemple, utilise 50 teraoctets de données analysées par jour depuis 2013 date de son entrée en fonction. Dans le Trading haute fréquence, le traitement de l’information se fait à la nanoseconde.Là on connaît déjà les dérives du système actuel:
    1. Quote stuffing: technique consistant à bourrer la cotation, d’ordres complètement inutiles afin de forcer la concurrence à analyser ces milliers d’ordres et donc à les ralentir. Ces ordres seront ignorés par le système qui les émet, et de toute façon ne seront pas exécutés car en dehors des meilleurs couples achats / ventes.
    2. Layering: Si l’on veut vendre un paquet d’action le plus haut possible, on va placer une série d’ordres d’achat jusqu’à un palier et de créer ainsi des couches (layers) d’ordres. Une fois ce palier atteint, la stratégie consiste à vendre massivement et dans le même temps à annuler tous les ordres d’achats restant que l’on a placés. Elle repose sur l’espoir d’un remplissage du carnet d’ordre à l’achat par les autres intervenants venant combler l’écart, puis de les surprendre en inversant la tendance.
    3. Spoofing: Semblable au layering sauf qu’il n’y a pas d’exécution d’ordres!! Le but est de charger le carnet dans un sens ou dans l’autre, puis de retirer ses ordres avant exécution. La stratégie est d’attirer le marché en gonflant le volume du carnet d’ordre, sans aucune réalité économique derrière…
    4. Cancelling: La conséquence des techniques précédentes, consiste à annuler la plupart des ordres dans l’espoir de manipuler le marché, seulement une faible proportion des ordres étant effectivement exécutés. Maximum 5% d’ordres exécutés! Vive l’économie d’énergie au sens propre et figuré…

    le THF représente 90 % des ordres et 40 % du volume des transactions(chiffres de 2009) et génère des milliards…

    Il y a pire actuellement: Obama pour sa campagne électorale a utilisé largement le Big Data pour analyser les opinions politiques des “citoyens” américains. Depuis 2012, le Département de la défense américain investit annuellement sur les projets de Big Data plus de 250 millions de dollars. Le gouvernement américain possède six des dix plus puissants supercalculateurs de la planète et pire encore, La National Security Agency est actuellement en train de construire le Utah Data Center. qui pourra supporter des yottaoctets d’information collectés sur internet…

    Nous ne sommes plus en “démocratie” si jamais nous l’avons été. Nous sommes bel et bien en “oligarchie”, soit le pouvoir entre les mains de peu de personnes(de loin pas les plus intelligentes) avides de “performances” et de “spéculation”, mot clé des banques centrales ou banques privées… les mêmes qui ont provoqué la crise de 2007 nous prépare la crise obligataire et la crise écologique en spéculant sur la Nature, en lui donnant un prix, en spéculant sur la vie comme si tout être vivant était un objet. Voir le film-reportage suivant d’une heure trente: Nature – Le nouvel eldorado de la finance : http://www.rts.ch/docs/histoire-vivante/a-voir/6514663-nature-le-nouvel-eldorado-de-la-finance.html

  • 16 mars 2015 à 19 h 00 min
    Permalink

    Ce graphique simple pour expliquer pourquoi j’ai peur que les connaissances de l’Humanité ne disparaissent avec la suprématie du Big Data. Simple: Toute les informations analogiques collectées vont disparaître et les livres seront laissés à l’abandon. Exit les bibliothèques nationales faute d’argent. Et que dire de la jeunesse qui n’ouvre plus un livre de toute leur vie?

    Ce graphique montre depuis 1986 le pourcentage de la digitalisation de l’information. Il était de 1% en 1986 et de 94% en 2007. Le support analogique semble avoir totalement disparu en 2015: http://upload.wikimedia.org/wikipedia/commons/7/7c/Hilbert_InfoGrowth.png

    Un autre graphique(source Gartner 2012) de l’investissement du Big Data dans l’Industrie: http://blogs-images.forbes.com/louiscolumbus/files/2012/08/Big-Data-Investments-by-Industry.jpg ainsi que la carte des opportunités du Big Data dans l’industrie, les banques et valeurs mobilières, les communications, les médias, les gouvernements, les transports, les assurances, l’éducation, la Santé et autres services: http://blogs-images.forbes.com/louiscolumbus/files/2014/06/big-data-heat-map-by-industry.jpg

    Ces graphiques laissent à réfléchir.

Les commentaires sont fermés.