La CDP, vraiment indispensable ?

La CDP, vraiment indispensable ?

Si l’on s’en réfère à la définition donnée par Gartner, la CDP “est une technologie marketing qui permet d’unifier les données clients en provenance du marketing et de tous les autres canaux afin de construire des profils clients et d’optimiser le timing et le ciblage des messages et des offres ».
Il s’agit donc d’une plateforme qui permet :

– De réunir la donnée client en provenance de différentes sources (web, mobile, CRM, social media, e-commerce etc.)

Gouvernance data : centraliser ou décentraliser ?

Gouvernance data : centraliser ou décentraliser ?

La data est une ressource de plus en plus maîtrisée et exploitée par les entreprises. Le cloisonnement de la donnée tend à disparaître chez les organisations. Gouverner et structurer la data devient donc nécessaire à toute entreprise voulant s’adapter et se développer...

Les enjeux RSE du bâtiment connecté

Les enjeux RSE du bâtiment connecté

De la microélectronique aux infrastructures de télécommunications, les TIC voient leur place déjà importante s’accroître davantage. C’est le domaine de nombreux challenges qui font évoluer nos sociétés actuelles vers des futurs plus innovants et connectés. Ces vingt...

Devoxx france

Ce qu’on a retenu de Devoxx France 2022

5 Mai, 2022 | Business Development, Dev & Data Sciences | 0 commentaires

 

Ce qu’on a retenu de Devoxx France 2022 !

 

Scient s’est rendu à la 10e Edition de Devoxx France ! Cette année encore Devoxx a proposé d’une large sélection de sujets dans de nombreux domaines. Aucun doute, Devoxx est LA convention Tech majeure en France !

Nous vous proposons dans cet article un retour d’expérience sur les sujets qui nous ont marqués et ce que nous allons en retenir.

Quatre sujets principaux : Wasm (Web Assemby), la sécurité sous toute ses formes, les enjeux de la consommation de ressources et d’énergies dans le numérique, et l’observabilité avec OpenTelemetry. Nous avons sélectionné en bonus un 5e sujet particulièrement intéressant et qui mérite d’être mentionné !

 

1. Wasm – Web Assembly

Commençons par cette conférence donnée par Laurent Doguin, (VP, Developer Relation chez Clever Cloud) et Philippe Charrière (Senior Technical Account Manager EMEA chez Gitlab).

Pour définir rapidement ce qu’est Wasm, c’est un format de bytecode exécutable partout où vous avez un hôte capable de le faire. Wasm peut s’exécuter partout (grâce aux hôtes) et c’est ici que les problèmes commencent…

Nous l’attendions particulièrement pour avoir enfin vision claire de la promesse Wasm et de l’état actuel de son développement. La promesse est belle, mais les frustrations sont nombreuses ! Wasm se développe autour du concept bien connu « write once, run everywhere ». Aujourd’hui nous avons l’impression que nous sommes encore au stade du « write once, run everywhere you can »

De notre point de vue, aujourd’hui, les principaux problèmes à régler sont :

  • Le passage de paramètres limité à des nombres et qui nécessitent beaucoup de codes superflus. Certains langages, comme GO, proposent un polyfill pour pallier ce problème. Cependant nous nous retrouvons rapidement contraints d’utiliser un langage spécifique ce qui ne correspond pas à la promesse initiale.
  • La (non) gestion des exceptions. Web Assembly ne propose rien pour gérer les exceptions. Ce point peut vite devenir rédhibitoire dans certains contextes. Des travaux sont en cours, mais nous allons devoir encore attendre avant que cela devienne satisfaisant.
  • Les capacités d’exécutions sont encore trop dépendantes des capacités de l’hôte. Par exemple, si le binaire s’exécute dans un navigateur, il n’aura pas les mêmes possibilités que s’il s’exécute dans un runtime comme Wasmer. De même, il est fort possible que les navigateurs ne proposent pas exactement les mêmes fonctionnalités ce qui nécessite les différents navigateurs au niveau du code.

Pour conclure, nous avons l’impression de rester sur notre faim, il va falloir encore attendre un peu avant d’avoir un écosystème plus mature.

Lien vers le replay : https://www.youtube.com/watch?v=ePnnbRHdNsI

 

2. La sécurité sous toutes ses formes

La sécurité avait une grande place dans notre choix de conférence cette année. Il n’y a plus de doute, la sécurité est devenue un enjeu de plus en plus important pour les entreprises.

Nous nous sommes rendus à la conférence sur la sécurité cluster Kubernetes donnée par Ludovic Toison (Technical Architect chez NFQ Asia), Emilien Lancelot (Développeur chez Capgemini) et Marion Nicolé (Software Engineer chez Capgemini). Lors de celle-ci les sujets principaux abordés ont été la sécurité des clusters kubernetes, et la sécurité avec les headers HTTP.

La sécurisation des clusters kubernetes nécessitent une véritable expertise :

  • Sécurisation de l’infra
  • Gestion des utilisateurs
  • Gestion des droits
  • Gestion du réseau
  • Analyse du comportement
  • Sans oublier, la sécurisation des images Docker.

La conférence s’est terminée par une démonstration de Falco, un outil utile pour détecter les actions suspectes réalisées au sein du cluster.

Ce talk nous a permis d’avoir une vue globale de tous les leviers importants pour sécuriser son cluster en production.

Lien vers le replay : https://www.youtube.com/watch?v=3In6HmhbeDI

 

La deuxième conférence dont nous souhaitons donner notre retour d’expérience est : La sécurisation avec les headers HTTP donnée par Mathieu Humbert (Tech lead & développeur chez Accenture)

M.Humbert a captivé l’attention en tentant d’hacker le CFP de sa conférence préférée. Il a passé en revue les attaques classiques, parfois triviales, et quelques fois plus subtiles. Il a abordé les sujets de XSS et CSRF. Nous comprenons très bien que certains sites peuvent facilement ouvrir des vulnérabilités dans certaines attaques pernicieuses. Nous pouvons tout de même dire qu’aujourd’hui une grande partie de ces failles sont prises en compte par les outils qu’on utilise pour développer nos applications.

Lien vers le replay : https://www.youtube.com/watch?v=hNlPFCLcOZ4

 

3. Les enjeux de la consommation de ressources et d’énergies dans le numérique

Le troisième thème que nous avons décidé d’aborder dans ce retour d’expérience est un sujet de plus en plus présent dans la tech. Quels sont les leviers efficaces pour optimiser la consommation de ressources et d’énergie dans le numérique ?

Quentin Adam et Pierre Beyssac ont démontré que certains calculs mis en avant aujourd’hui n’ont pas de fondements scientifiques. Il est impossible de définir une corrélation entre émission de CO2 et volume de stockage par exemple. Un data center en France et en Allemagne ne produiront pas le même volume de CO2 pour la même quantité de données stockées, le modèle de production d’électricité étant très différent. De même, un disque dur de 16TO consommera la même quantité d’énergie qu’il soit vide ou plein.

Aujourd’hui, la majorité de la consommation d’énergie est liée à la fabrication des composants et infrastructures. Un des leviers majeurs est de pérenniser les équipements et d’optimiser l’utilisation des équipements existants.

Pour finir la consommation totale pour le numérique est d’environ 3 % de la consommation totale d’énergie en France (et environ 10 % de l’énergie électrique). Si vous voulez réduire les émissions de CO2 laissez votre voiture au garage et faites de la visio-conférence.

Lien vers le replay : https://www.youtube.com/watch?v=gxWwxqIrCa8

 

4. L’observabilité avec OpenTelemetry

Lors de cette conférence, Vincent Behar propose un retour d’expérience de la mise en place d’OpenTelemetry chez Ubisoft.

Il a tout d’abord clairement défini la notion d’observabilité et les 3 types de données que l’on manipule :

  • Les logs
  • Les métriques
  • Les traces

OpenTelemetry est en train de s’imposer comme un standard et l’OpenTelemetry Collector est peut-être l’élément le plus important et différenciant de toute la stack. Le collecteur est composé des éléments suivants :

  • Receivers : récupération des données par le collecteur (en push ou en pull)
  • Processors : processing des données collectées
  • Exporters : exportation des données modifiées vers divers composants (en push ou en pull)

Les collecteurs peuvent être chainés au sein de pipeline pour avoir un traitement de la donnée encore plus fin.

Il conseille de mettre en place les collecteurs en début de projet pour gérer, au moins, les logs et les métriques. La gestion des traces dans les applications avec OpenTelemetry est aussi facilitée pour certain langages (Java, PHP ou .Net par exemple) avec la mise en place de l’auto-configuration. Cela permet de générer certaines traces sans aucune configuration, en activant simplement les libs OpenTelemetry. Pourquoi s’en priver ?

Nous sommes d’accord pour dire que le sujet n’a pas fini de faire parler.

Lien vers le replay : https://www.youtube.com/watch?v=dGMN3keJuXA

 

Pour terminer ce retour d’expérience nous aimerions aborder la conférence la plus folle et pertinente à laquelle nous avons participé : Accéder à mon cerveau par une API donnée par Sébastien Blanc.

Il existe aujourd’hui des interfaces neuronaux grand public qui exposent des API pour collecter et exploiter les ondes cérébrales. Oui, pour moins de $1000, vous pouvez acquérir un casque qui donne en temps réel votre activité cérébrale. Et vous pouvez l’exploiter via des API dans divers langages (Node, Java…).

Il y a certainement encore des progrès à faire dans la fiabilité des données, mais la base est là et les applications sont innombrables, que ce soit dans le domaine médical ou celui du divertissement.

Lien vers le replay : https://www.youtube.com/watch?v=mog0W_RHYA4

 

Nous souhaitons remercier l’organisation de Devoxx pour ces 3 jours riches en émotions et nous avons hâte d’y retourner l’année prochaine !

Aller au contenu principal