Big Data Paris : pourquoi il faut y aller au moins 1 fois…

Publié par Data4everybody le

Big Data Paris 20186400 visiteurs lundi 12 Mars, 6200 Mardi…

Big Data Paris est L’événement incontournable à qui veut connaître les tendances des nouvelles technologies data-driven au niveau national.

A voir les exposants et les sujets des conférences et ateliers, le salon revêt les atours de l’Industrie numérique 4.0.

Qu’est-ce que c’est ? … L’industrie du futur ! Des systèmes intelligents, interconnectés, qui accompagnent désormais de manière transparente les activités tout au long de la chaîne de valeur.


On le constate à plusieurs niveaux :

  • big data semantiqueLa sémantique « Big Data » tout d’abord  : il est toujours utile de définir le Big Data, dont le périmètre change selon l’environnement où il est évoqué, selon que l’on s’adresse à des insiders de la donnée ou non. Au Forum du Big Data Paris 2018, le Big Data dépasse le périmètre des données et désigne l’ensemble des technologies pour traiter le Big Data. Le terme adopte le sens le plus extensif qui soit : de la collecte de la donnée, à son intégration dans des bases de stockage ou dans le cloud, et bien sûr en aval : tous systèmes d’analyse relevant aussi bien de la business intelligence moderne, de l’analyse sémantique, cognitive, de l’analyse émotionnelle et biométrique, et l’Intelligence artificielle.

Ainsi, au Big Data Paris 2018, on ne parle plus de « BI ou business intelligence » pour la phase d’interprétation mais de « Big Analytics » ou « Data Analytics », c’est-à-dire des moyens d’analyse appliquée à la volumétrie et multiples formats des données.

La question n’est plus de savoir si un outil ou une application traite le Big Data, mais de savoir s’il traite les données semi-structurées ou non-structurées (données qui sont plus difficiles à traiter qui correspondent à 90% du Big data en réalité).

On ne parle plus de Big Data non plus sans parler de l’Intelligence artificielle (IA): c’est LA technologie opérationnelle pour contrebalancer la volumétrie, l’accélération et le traitement de la multiplicité des formats. L’IA prend tout son sens dans les domaines applicatifs métiers.

Les espérances aux plans business, médical, administratif et civil vis-à-vis de cette technologie pluridisciplinaire n’a d’égal que l’accélération de production des data. IDC prévoit qu’elle atteindra 163 Zo en 2025 (1 180 milliards de milliards d’octets), soit 10,6 fois plus qu’en 2016.

 

  • 2018 sera sans doute l’année de convergence du Big data avec des nouvelles technologies pluridisciplinaires. Les entreprises sont affamées de nouvelles technologies et font de la veilles pour celles qui sont prometteuses bien que peu matures car l’origine des données à horizon 2025 seront les entreprises elles-mêmes pour 60% (IDC).

Avec la maturité grandissante de certains usages et la progression en équipement technologique des organisations et des individus, cette prochaine vague de data se profile, composée de données issues des objets connectés (qui seraient traitées en streaming analytics), issues de systèmes cognitifs et d’intelligence artificielle, du mobile – toujours first – et des applications en temps réels.

  • Toutes les technologies dites du Big Data sont dotées a minima d’une couche d’intelligence artificielle; celle-ci devient accessible en Machine-learning et même en Deep-Learning.

Cette dernière n’est plus l’apanage d’une entreprise bien staffée en data scientistes spécialisés en IA – comme UBER pour analyser en masse les prises en charge et dépôts des passagers -,  mais devient un service accessible online, deep-learning-as-a-service. Tandis que le Machine-learning-as-a-service, MLaas, enregistre une forte expansion.

 

  • Les technologies de collecte et de data visualisation sont matures, bien que laissant la place à de nouveaux acteurs si l’on en croît la matrice de Gartner de Janvier 2018 – pour rappel, Tableau et Microsoft power BI figurent toujours dans le magic quadrant correspondant aux visionnaires, Qlik a translaté vers le bas c’est-à-dire les leaders). Avec le visuel, dans la donnée statique (dashboarding, reporting) qu’exploratoire et prédictive (data visualisation) nous sommes, en 2018, bel et bien rentrés dans l’ère du « sens de la donnée ». Il devient impératif pour les entreprise de faire parler la data.

 

  • Les entreprises traiteront jusqu’à 97% de leurs data-sphère. Mais seules 20% des données seront essentielles >15% seront taguées et utiles pour être interprétées >10% seront hyper-essentielles > moins de 5% seront effectivement analysées et valorisées par des systèmes.

 

Autre sujet porté par Nozhia Boujemah, Directrice de recherche à l’INRIA (DATAIA Données Intelligence Artificielle et Société), Conseillère du Président sur le Big Data : l’éthique des algorithmes devient un sujet de fond au Big Data Paris.

La société civile est de plus en plus consciente de vivre dans un Monde dominé par les algorithmes qu’elle qualifie « de diffus et pervasif ». Côté organisation,  les données sans algorithmes sont une masse inerte et ne donnent pas lieu à des décisions. Il est recommandé de ne pas rester utopiste et optimiste plus que de raison en pensant que l’IA résoudra tout, notamment dans la prédiction.

L’analyse du passé prête moins à conséquence que l’interprétation du futur dans les contextes à fort impact sur l’individu et la société.

Témoins, les initiatives nationales aux Etats-Unis et en Europe, pour poser le sujet et instaurer un dialogue avec la société civile. Le secteur business, tels les GAFAMs, s’empare depuis peu du sujet de l’éthique via une initiative commune. La transparence et la responsabilité seront les valeurs éthiques qui pourraient prévaloir à service égal.

Mais, on ne peut pas ne pas parler de transparence et de valeur sans parler de l’imminente application de la protection des données à caractère personnel. Car tout traitement a pour toile de fond la GDPR (Règlement européen de Protection de la Donnée à Caractère Personnel) dont la prochaine échéance du 25 Mai 2018, et l’E-privacy qui cristallise des inquiétudes, a permis de mettre au programme de Big Data Paris des interlocuteurs venus porter leurs messages en direct :

  • …A commencer par Mouni Mahjoubi, Secrétaire d’Etat au Numérique, en ouverture des deux journées de Big data : « la portabilité des données est un gros enjeu pour permettre aux citoyens de récupérer ses data facilement et changer d’entreprise responsable du traitement. C’est un réflexe que les citoyens n’ont pas encore mais ils doivent maîtriser leurs données personnelles des données.

La portabilité représente de nouveaux droits pour les citoyens, de nouvelles opportunités pour les entreprises et une plus grande transparence demandée aux plateformes.

  • Ensuite, la CNIL, représentée par Sophie Nerbonne, Directrice de la conformité, désignée experte auprès de la Commission européenne sur les questions de crédit, et après avoir pris en charge le portefeuille du secteur financier, qui est intervenue à la table ronde  « Protection des données : comment faire d’une obligation légale un atout de la stratégie d’entreprise ». Car on ne démontre plus que les réglementations sont des accélérateurs de transformation pour les organisations, en plus d’être un parapluie pour les citoyens.

En illustration de ce que font les licornes champions des organisations data-centric (l’année dernière, c’était Uber,  Airbnb (Mickael Curtis, VP engineering) est venu nous parler de la collecte des données que l’entreprise analyse afin de prédire les nuitées achetées sur les 12 mois glissants et recommander aux hôtes des prix plus ajustés aux prédictions. En effet, 60% des clients réservant sur la plateforme sont sensibles au prix de la nuitée.

Un foisonnement d’ateliers de best practices, des conférences éclairantes, des rencontres humaines et un état de l’art sur les avancées. Tel est le cocktail du Big Data Paris.


Le temps des Trophées de l’innovation Big Data Paris

La tendance de fond pour le millésime 2018 sont le Cloud, le Machine Learning : analyse prédictive, marketing prédictif et analyse des sentiments. « La promotion 2018 s’est avérée très belle » a annoncé le jury.

The winner is :

Catégorie DSI : SEB qui s’est dotée d’une structure spécialisée dans la donnée avec des compétences de datascience et deeplearning.

« La corrélation, le deep learning, et l’analyse prédictive nous permet d’améliorer la qualité de nos process et de détecter les anomalies pour corriger de manière préventive d’éventuels défauts de fabrication ». L’objectif est véritablement d’améliorer la qualité de la production en France.

Catégorie B to B : Datadome, destiné à mettre l’IA au service de la lutte contre les bad bots, qui viennent polluer sur le nombre de clics des annonceurs publicitaires. Ces bad bots représentent jusqu’à 50% du trafic web mondial !

Catégorie B to C : Mutuelle générale, pour la performance et le caractère novateur de sa solution DeepDive. Totalement inédite et réalisée entièrement en interne, celle-ci permet une amélioration du process de gestion du courrier postal reçu, grâce à une forme d’intelligence artificielle.

Catégorie Start up : La Javaness pour un système de pricing intelligent qui pourrait bien augmenter les marges des sites de e-commerce s’il en est.

Catégorie Coup de coeur du jury : Openhealth née de la conviction que les data et les possibilités d’analyse ouvertes par les nouvelles technologies représentent un enjeu majeur pour le secteur de la santé.

Openhealth propose des analyses de données de santé appliquées au domaine marketing pour les industries de santé mais aussi épidémiologiques, de santé publique et médico-économiques pour l’ensemble des acteurs de l’écosystème santé.

 

Follow me

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *