La data, une amie qui vous veut du bien

L’heure est à l’inquiétude face à la reconnaissance faciale. La Chine nous inquiète par ses pratiques de contrôle permanent, l’Europe et la France suggèrent de l’interdire pour quelques années, le temps de bien poser la réflexion et les enjeux, et pourtant les applications se multiplient.

Forcément, l’idée de ne plus pouvoir être anonyme, d’être tracké dans la moindre de nos actions peut inquiéter. Sans être un dissident, je n’ai pas forcément envie qu’un gouvernement, ou une entreprise transnationale, puisse tout savoir de moi.

Sauf que, il est déjà trop tard.

Pas pour la reconnaissance faciale, mais une technologie bien plus simple et déjà très établie vous tracke en permanence : votre smartphone. Le pire, c’est qu’il le fait à votre demande, ou en tout cas avec votre accord.

Nous avons pour la plupart activé le GPS de notre téléphone, et accepté que notre position soit partagée avec certaines applications. Mais savez-vous lesquelles à un moment précis ? Et savez-vous ce que les entreprises qui collectent ces données en font ? Et savez-vous ce que ces données indiquent ?

Petit tour d’horizon d’un monde digne de 1984.

Commençons simplement : vous avez sûrement installé Google Maps, et accepté de partager votre position avec cette application. Cela semble une évidence pour son utilisation correcte. Avez-vous déjà vérifié ce que l’application enregistre à propos de vous sur le Cloud de Google ?

Rendez-vous, via leur site web, sur votre historique de cartographie. Vous pourrez ainsi constater que la firme californienne possède parfois un historique de vos déplacements remontant à plusieurs années. A priori, Google est une société en qui nous devrions pouvoir avoir confiance, et qui ne devrait pas partager ces données avec n’importe qui. Ces données ne servent en principe qu’à vous aider lors de vos recherches ou de vos déplacements, et à « améliorer » les services Google. Qu’est-ce qui se cache derrière ce terme, Améliorer ? Bonne question.

Pour le moment, il s’agit surtout de mieux cibler les publicités qui vous sont présentées.

Seulement rappelez-vous Cambdrige Analytica. Pour résumer, cette société a acheté des jeux de données similaires à Facebook, et les a utilisés pour définir des profils d’électeurs. En fonction de leur lieu de vie, de leurs relations, des groupes qu’ils suivent etc, Cambridge a ensuite défini avec son client (un certain M. Donald T.) quelles étaient les meilleures communications à envoyer pour inciter ces personnes à voter pour eux, ou bien à ne pas aller voter du tout. Si l’on en croit les résultats de cette élection, ou bien ceux du référendum du Brexit en 2016, il semble que la méthode soit efficace.

Seulement, vous allez me dire : pas de ça chez moi, je suis attentif et éclairé et je garde mon objectivité.

Alors rendons-nous à l’étape numéro deux. Avez-vous déjà vérifié quelles applications ont accès à votre position sur votre smartphone ? Il est si vite fait d’accepter des conditions lorsque l’on veut utiliser sa nouvelle application.

Je vous invite à le faire. En fonction de votre téléphone, le menu est différent mais vous devriez rapidement trouver une liste des applications qui possèdent cette autorisation. Vérifiez dans la liste si chacune des applications est bien légitime à collecter votre position, et sous quelles conditions.

Cela peut sembler un peu extrémiste, surtout dans notre métier de s’inquiéter de cela.

Je ne peux que vous conseiller la lecture d’un excellent dossier du NY Times dédié à cette problématique : https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html

Comme nous ne sommes pas reporter, je vous propose de rester dans le domaine de la théorie.

Vous avez installé des applications, dont certaines vous réclament l’accès à votre position, d’une manière qui semble légitime.

Vous êtes vous demandé ce que les entreprises qui publient ces applications font de ces données ? La loi n’est d’aucune aide, pour le moment, car vous avez accepté le partage et la société a sûrement écrit de belles conditions d’utilisation. Conditions que vous n’avez pas lu, comme tout le monde. Et quand bien même, le texte doit contenir une vague référence à un usage sécurisé et raisonnable de vos données, pour l’amélioration de vos services. Bon, inutile de pleurer sur le lait renversé, ce qui est fait est fait. Vous vous dites sûrement : mais qui peut bien s’intéresser à mon parcours quotidien, et se passionner pour ma visite hebdomadaire au club de gym ? Soit dit en passant, il est étonnant que chaque visite au club de gym ne dure que 30 minutes, alors que vous aviez dit à votre cher.e et tendre que vous feriez une heure de sport par semaine. D’autant plus que chaque visite à la salle est suivie d’un arrêt à la boulangerie. Mais cela ne nous regarde pas.

Prenons le problème dans l’autre sens : si je suis quelqu’un de mal intentionné, je peux acquérir des fichiers contenant les données de positionnement de milliers de personnes, moyennant quelques centaines ou milliers de dollars.

Il existe quelques dizaines de sociétés qui vendent ces données de manière tout à fait légale. Etonnamment, ce sont elles qui fournissent des services d’applications gratuites, ou des kits de développement permettant aux auteurs d’application de mieux monétiser leurs propres services.

Rappelez-vous : si le produit est gratuit, c’est que vous êtes le produit.

Nous pouvons rester rassurés malgré tout, ces données sont dites anonymisées. C’est-à-dire que le collecteur en a retiré votre email, votre nom… pour ne laisser qu’un identifiant unique mais anonyme. Personne n’a de moyen de savoir que Charles Dupont est derrière le numéro 4256-4532-9876-2345. Tout va bien.

Atteignons maintenant le moment angoissant de l’histoire. J’ai donc acquis un bon lot de données me permettant d’afficher sur une carte un ensemble de points. Chacun de ces points représente la position d’un utilisateur à un instant donné.

Je peux bien évidemment afficher l’ensemble des points sur une zone donnée à un instant précis, ou bien choisir un utilisateur particulier et tracer son parcours individuel.

Commençons par le collectif. Disons que je suis quelqu’un d’engagé politiquement, et que je suis réfractaire à un mouvement particulier. A une certaine date, une manifestation a eu lieu, en soutien à cette cause. Disons qu’il s’agit de la création d’un nouveau système de retraites.

Donc le jour dit, je peux voir l’ensemble des manifestants représentés sur la carte et suivre a posteriori leurs mouvements en groupe.

Ce jour-là a aussi eu lieu un regroupement en soutien aux anarchistes révoltés. Manifestation elle aussi très légale, mais avec des manifestant ayant tendance à se masquer le visage.

En regardant les mouvements des points sur ma carte, je constate qu’une grande partie des opposants au régime de retraites a aussi participé à l’autre manifestation.

Si j’étais dans le domaine du renseignement, ou de l’information, cela pourrait m’être utile, de pouvoir croiser ce genre d’informations, et même de le relier à des bases de données concernant les partis politiques, ou des groupes Facebook. Je pourrais cibler des « publicités » en fonction des groupes identifiés, pour décourager certains de venir manifester, en encourager d’autres à venir etc.

Pas assez inquiétant ?

Soit. Dernière étape.

Je reprends mes points de données. Je suis une puissance étrangère. Je voudrais savoir ce qu’il se passe au ministère de la Défense à mon propos. Difficile, n’est-ce pas ? Je vais supposer que les réseaux à l’intérieur des sites sensibles sont sécurisés, y compris les accès. Voir même que les portables y sont interdits.

Mais pas sur le parking. Je peux voir tout un lot de points qui viennent chaque matin et s’arrêtent sur le parking, puis en repartent le soir. Et si je m’intéresse à un point individuel, je peux le suivre dans son parcours quotidien.

En étudiant ses habitudes, je vais rapidement trouver, dans ces données anonymes rappelons-le, où cette personne habite, quel est son supermarché préféré. Je vais trouver qu’elle va à la salle de sport tous les mardis (et à la boulangerie juste après !), qu’elle se rend une fois par semaine chez un thérapeute…

Il deviens alors assez facile de trouver l’identité de cette personne. Ne serait-ce qu’en allant voir le lieu de résidence (par Google Street View, pour être discret. Si je n’ai pas de chance, cette personne sera irréprochable.

Si j’en ai un peu, je découvrirais un petit faible : une addiction au PMU, une visite récurrente chez un avocat spécialisé dans les divorces, ou bien en suivant de plus près son activité en ligne, des habitudes pas très saines de stockage de données etc.

Et voilà, j’aurais ma porte d’entrée au ministère. Ou bien j’aurais identifié l’un des membres de la sécurité présidentielle.

Bon, j’avoue, j’ai cherché l’angoisse. Nous en sommes pas tous la cible de James Bond, ni des anarchistes révoltés.

Simplement la facilité avec laquelle nous pouvons être identifiés et suivis en ligne par n’importe qui possédant un peu de temps et d’argent semble être un sujet de réflexion important.

En Europe, le règlement RGPD nous protège en partie de ces usages, mais pas entièrement. LA France avec la CNIL a une base solide pour pouvoir identifier les collecteurs de données non fiables, et surtout pouvoir enquêter et rendre transparents les usages de ces données.

Le profilage par groupes entiers peut rapidement porter des torts, surtout si nous n’avons pas accès aux données nous concernant.

Pour un dernier exemple, certaines banques anglaises, dès 2010, utilisaient un système nommé Phoenix. Ce système était sensé pouvoir identifier si un particulier était fiable ou non.

Et les banques se basaient sur ces recommandations pour accepter ou non l’ouverture d’un compte bancaire.

Le problème est que vous n’aviez aucun accès possible, ni aux données ni aux critères de décision. Vous n’aviez que le résultat de la décision, et aucun moyen de contestation.

Et petit bonus, comme pour le credit score américain, si vous subissiez un refus d’ouverture de compte, cela s’ajoutait dans votre balance négative. Un joli cercle vicieux en perspective…

Moralité de l’histoire : vérifiez ce que vous partagez, déjà sur votre smartphone, et avec qui vous le partagez. Est-ce que le dernier jeu installé pour occuper junior dans une file d’attente nécessite réellement votre position en permanence ? Est-ce que Facebook en a réellement besoin ?

De l’usage des datas et de l’IA

Le buzz autour de l’IA semble se cristalliser autour de deux principaux sujets : les possibilités offertes par la technologie, et les risques liés à son utilisation.

La question des risques est un sujet de choix pour les détracteurs et les récalcitrants. Nombre d’articles et de livres listent les problèmes posés par l’IA et souhaiteraient nous voir jeter le bébé avec l’eau du bain, et la baignoire au passage.

Ce qui me trouble beaucoup dans cette démarche, en dehors du danger que l’on fait courir aux bébés qui prennent leur bain, c’est que l’IA focalise l’attention, alors que le problème est humain avant tout. L’IA ne fait rien de nouveau ou de plus que d’autres systèmes précédents. Et même le terme IA est galvaudé, particulièrement dans ces cas-là.

Prenons quelques exemples.

Le plus ancien me concerne directement. Il y a une dizaine d’années, j’ai déménagé au Royaume-Uni, et j’ai voulu ouvrir un compte en banque. Nous avons choisi une banque connue et répandue. Nous avons passé quelques heures à remplir des formulaires, puis avons attendu de recevoir nos moyens de paiement. Le jour où nous les avons enfin obtenus, nous avons aussi eu un lettre nous indiquant que notre compte allait être fermé car nous n’étions pas conformes à la politique de la banque. Aucune autre information n’était donnée. Ayant noté une erreur dans le nom auquel le courrier était adressé, j’ai voulu rentrer en contact avec la banque, pour savoir quelle était la raison réelle de ce refus et vérifier s’ils n’avaient pas suivi le dossier de quelqu’un d’autre (le credit score existant dans ce pays, j’aurais pu être confondu avec une personne ayant un mauvais score). Après de multiples emails et coups de téléphone, la seule réponse que j’ai obtenu a été “le système Phoenix nous indique que nous ne pouvons pas vous octroyer un compte”. Impossible d’en savoir plus.

Ce qui m’a dérangé, en bon français habitué à la CNIL, a été de me voir opposer un mur anonyme, sans avoir aucun moyen d’accéder aux données me concernant. La banque pouvait me refuser un service, sans aucune justification ni explication. Aucune IA à cette époque, quelques recherches m’ont montré que je n’étais pas le seul à avoir des problèmes avec Phoenix, et que celui-ci était un simple système de vérification qui pouvait se déclencher pour des raisons obscures. Et bien sûr impossible de faire corriger mon dossier d’application pour que le contrôle effectué corresponde bien à ma propre situation (il reste très probable que l’erreur de nom dans le courrier de refus prouve que les données de contrôle ne me concernaient pas).

Pour l’épilogue, nous sommes allés dans une autre banque, avec le même dossier. Nous avons expliqué la situation, et après quelques échanges avons obtenu notre compte.

Je peux utiliser d’autres exemples, comme les systèmes de logement aux US qui se basent sur des données plus ou moins publiques pour déterminer si vous êtes aptes à recevoir un logement. Je ne parle pas de système de logements sociaux, mais de sociétés privées qui fournissent des service de background check pour les bailleurs privés. L’expérience malheureuse de quelques-uns a montré que, comme dans le cas de Phoenix, il est impossible d’accéder à nos propres données, de savoir quel critère nous a rendu indésirable et encore moins de pouvoir corriger les données si jamais il y a une erreur.

Ou bien pensez au système de social scoring chinois. Si vous trouvez le credit score anglo-saxon désagréable, je n’ose imaginer les dérives possibles du social scoring.

Accessoirement cela peut créer des cercles vicieux, rappelez-vous l’épisode Nosedive de Black Mirror. Tant que vous êtes un blanc mouton, gentil et hypocrite, tout va bien. Au moment où un grain de sable vous fait dérailler, tout part de travers. Votre score se dégradant, vous vous trouvez dans des situations plus compliquées (difficultés à obtenir un prêt, un travail, un billet d’avion etc…) et le risque que votre score se dégrade augmente.

Bon il s’agissait de fiction, mais finalement très proche de la réalité. Revenons au credit score américain : si votre score est mauvais, vous aurez du mal à obtenir un prêt de bonne qualité. Mais vous finirez par en obtenir un à de très mauvaises conditions, ce qui signifie souvent qu’il vous coûtera cher et que vous augmenterez le risque de défaut de paiement, même temporaire. Ce qui va dégrader votre credit score, etc. etc etc.

Mais tout ceci n’est pas lié à de l’IA. Certes, parfois ce sont des algorithmes obscurs qui ne rendent pas d’explication sur leur décision. Et ce ci doit être combattu et corrigé. Mais la plupart du temps la sélection se fait sur des critères cachés mais très simples. La discrimination existe, avec ou sans IA.

Ce à quoi il faut être attentif reste l’accès aux données et l’explicabilité des modèles.

Pour la première, nous avons en Europe le règlement RGPD qui oblige à cette transparence (et à la protection de nos données). C’est un pas dans la bonne direction, au moins dans notre juridiction.

Pour l’explicabilité des modèles, il n’existe pas encore de règle, à ma connaissance, mais cela devrait être obligatoire pour tout ce qui touche aux besoins primaires, à minima.

NB : je vous conseille la lecture de Weapons of Math Destruction, de Cathy O’Niel. A lire avec un peu de recul, mais sa démarche pour identifier les IA/algorithmes/outils nocifs est intéressante.

Remote Expert

J’admets être venu au sujet du remote Expert par accident. Une demande client sur le sujet m’a amené à creuser quelques pistes. Une fois les quelques solutions utilisées et testées, j’avais en main de quoi effectuer simplement quelques démos, parfois de manière inopinée. J’ai été convaincu très vite du potentiel de cette solution simple à mettre en œuvre. Les quelques démos effectuées au détour d’une conférence ou d’une simple discussion montrent que les clients sont convaincus aussi.

Le Remote Expert  (ou Remote Assist), qu’est-ce que c’est?

Imaginons que vous ayez dans votre structure une flotte d’intervenants sur site pour des tâches très variées. Ceux-ci ne peuvent pas être experts dans tous les domaines, ni connaître par avance tout ce dont ils auront besoin avant d’être appelés en dépannage. D’un autre côté, vous aurez sûrement un expert du domaine, qui maitrisera parfaitement l’intervention à effectuer. Mais celui-ci ne sera pas en mesure d’être présent sur l’ensemble des sites au cours d’une journée, les pannes ne se planifiant jamais comme cela nous arrangerait.

Il faudrait donc une solution permettant à l’expert de se démultiplier. Comme le clonage humain n’est pas encore au point ni éthiquement accepté, il faut trouver autre chose. Et voici le Remote Expert.

Cette solution consiste à utiliser un appareil mobile sur le site de l’intervention, pour partager l’environnement de travail avec l’expert. Et surtout de pouvoir annoter et donner des indications sur cet environnement.

L’intervenant peut utiliser deux options :

  1. Il est équipé d’un casque de réalité mixte. Dans ce cas il peut l’utiliser pour partager son espace de travail, et avoir dans son champ de vision une fenêtre de dialogue ou de partager avec l’expert. Celle-ci permettra par exemple de montrer un schéma, ou simplement de voir le vidéo conférence.
  2. Il possède un téléphone mobile. Il pourra alors l’utiliser pour montrer ce qu’il observer, et voir partager les annotations avec l’expert. Il pourra lui aussi annoter sa vision.

En bref, cela revient à une vidéoconférence, couplée à un tableau blanc interactif.

Il est à noter que grâce à des technologies d’ancres géospatiales, toutes les annotations sont ancrées sur des objets physiques du champ de vision. Cela permet à l’intervenant de se déplacer sans perdre les indications.

Voici une capture d’écran de que cela donne, avec un petit circuit en LEGO :

Pour la vidéo complète, c’est ici :

Dans cette démo, pour des raisons purement pratiques, j’ai utilisé la solution Chalk de PTC (https://chalk.vuforia.com).

L’autre solution que j’utilise est Dynamics Remote Assist de Microsoft (https://dynamics.microsoft.com/en-us/mixed-reality/remote-assist/)

Pour les tarifs et les comparatifs, contactez-moi 🙂

La tranformation DevOps – deuxième étape

Bienvenue dans ce second épisode de ce qui menace de se transformer en série de posts sur DevOps et la transformation DevOps. Malheureusement pour vous, je dis souvent ce qui me passe par la tête, et il n’y a aucun plan génial visant à écrire un livre chapitre par chapitre. Le premier article parlait de choisir une stratégie lors de la transformation DevOps d’une équipe de services managés.

Ce second article ne vient pas nécessairement après le premier, vous avez toute liberté de choix 🙂

D’une certaine façon, mon sentiment est que DevOps est assez proche d’ITIL dans l’esprit : une boite à outils où vous pouvez prendre ce dont vous avez besoin, et décider comment l’utiliser.

Donc, sujet d’aujourd’hui : comment viser, ou construire l’équipe qui va initier le mouvement DevOps dans votre organisation?

Il existe plusieurs indicateurs sur lesquels s’appuyer pour faire ce choix. Aucun n’est absolu. Encore une fois, je ne vous donne que des indications pour sélectionner l’équipe qui va réussir à appliquer des principes DevOps. Il n’y a pas de

Remède miracle, ni de baguette magique!

Le critère le plus évident est de constituer une nouvelle équipe, en sélectionnant  des collaborateurs qui sont déjà au fait  de DevOps, et désireux de s’y mettre. Cr sont les personnes qui sont les plus susceptibles de vous aider à réussir ce premier pas, et montrer au reste de l’organisation que la transformation est possible, et qu’elle génère beaucoup de gains et bénéfices.

Le second indicateur à repérer est fortement lié au principal objet des méthodes DevOps : le software delivery. Si vous avez une équipe qui rencontre des difficultés à maintenir un processus de livraison de code fiable, et que cette équipe est prête à s’investir pour construire l’équipe et les outils nécessaires pour en arriver là, alors vous avez un très bon candidat. A l’opposé, si vous essayez de convaincre une équipe qu’elle doit s’intéresser à DevOps, alors qu’ils sont persuadés que leur processus actuel est fiable et de qualité, à tort ou à raison, vous allez vous heurter à un mur. Il ne semble pas pertinent de consommer du temps et de l’énergie dès le départ pour convaincre des gens qu’ils effectuent un travail de piètre qualité s’ils ne le réalisent pas. Ce n’est très probablement pas la bonne cible pour votre premier pas vers DevOps.

Le dernier critère nous ramène à mon sujet favori, en dehors de la technique : les bénéfices business!

Cela paraît évident, mais une transformation dans votre organisation doit toujours être sensible aux objectifs business, à la cible de l’entreprise dans son ensemble. Imaginons que vous choisissiez une équipe qui travaille sur un produit en fin de vie sur lequel aucune évolution n’est prévue, et dont les clients sont satisfaits. J’ai bien peur que vous n’ayez aucun soutien, ni aucun résultat évident si vous démarrez votre transformation DevOps par cette équipe. D’un autre côté, si vous arrivez à commencer par une équipe travaillant sur le produit phare de l’organisation, sur lequel les yeux des plus hautes instances sont rivés, et qui doit démontrer une capacité de livraison de code moderne et fiable… vous avez votre champion. (petit bémol, c’est aussi probablement le candidat sur lequel vous n’aurez pas le droit à l’erreur… mais on ne vit pas sans se mettre un peu en danger régulièrement 🙂 )

Une fois cette équipe choisie, ou construite, commencez à travailler. Gardez à l’esprit, tout le temps, que le cœur de DevOps, comme toujours, est l’humain et non uniquement les outils.

Le bon sens va dicter la seule chose à retenir de cet article . Je vais paraphraser quelqu’un qui a implémenté des organisation Agile/DEvOps multiples : “Nous avions démarré avec une population difficile, et nous leur avons donné des outils et méthodes modernes et intelligents. Ca n’en a pas fait une population moderne et intelligente.” Je dois admettre que la citation d’origine était plus… rude, mais je ne peux l’écrire ici 🙂

PS : J’essaye de garder ces articles à une taille raisonnable, et je ne fais pas de deep dive sur chaque sujet évoqué. Croyez-moi c’est volontaire, ce n’est pas uniquement de la flemme. Si vous voulez en savoir plus sur un sujet particulier, demandez-moi, ou bien trouvez un bon livre/article de référence!

A très bientôt!

La transfo DevOps – étape 1

Je sais, tout le monde parle de DevOps, à tort et à travers, mais parfois à raison. C’est un terme souvent utilisé pour redorer une image d’équipe ou de practice, et donner une touche sexy sur un jeu de diapositives. Je le vois souvent utilisé pour décrire ce qui n’est essentiellement que de l’automatisation dans une équipe Ops/infrastructure. C’est un bon début, mais ce n’est qu’un début, pas le voyage complet.

Néanmoins, ayant été acteur, parfois majeur, et témoin de plusieurs de ces transformations vers le DevOps, je voulais donner mon avis, à qui veut bien l’entendre. Ce que je vais dire va sûrement paraître trivial à certains d’entre vous, mais pourrait donner quelques indices à ceux qui se demandent où va le métier d’infogéreur.

Je parle de transformation DevOps, spécifiquement lorsque cette transformation touche une équipe de Managed Services/infogérance. C’est un sujet difficile dans ce contexte, car ces équipes doivent fournir un support moderne à leur client, qui sont parfois déjà organisés en mode DevOps, et même les aider à vivre cette transformation.

Je ne vais pas entrer dans les sujets contractuels et SLA, c’est un point très sensible et complexe. En tout cas, pas aujourd’hui.

J’ai pu observer deux façons d’approcher ce sujet. La première est une transformation complète et radicale de l’existant, pas de quartiers. La seconde est de construire une nouvelle équipe dédiée DevOps, en parallèle de l’existant.

J’ai seulement vécu la seconde méthode personnellement. Il s’agissait d’une opportunité car nous amenions tout un panel de nouvelles technologies et de clients dans une équipe d’infogérance existante. J’ai pu faire le choix de repartir d’une feuille blanche et de bâtir un ensemble d’outils et de méthodes pour desservir des nouveaux clients dans un nouveau modèle, en ne m’appuyant qu’au strict minimum sur l’existant. Cela nous a donné la possibilité d’être créatif et de démontrer la viabilité des nouvelles méthodes de travail et d’interaction avec nos clients.

La partie difficile a été l’adaptation aux services existants. Par exemple, nous avons du commencer en conservant les outils de supervision existants, car nous ne pouvions pas demander aux équipes de monitoring 24*7 de surveiller des outils et dashboards multiples. Notre succès sur les autres domaines (infrastructure as code, focus sur l’applicatif) nous a permis ensuite de driver un changement de plate-forme de supervision, quelques mois après les premiers pas. Et le mouvement, une fois lancé, a continué.

L’autre méthode, aka Big Bang, j’en ai été témoin. C’est une approche très disruptive, et qui ne peut pas être portée par n’importe qui. Il faut avoir un soutien de sa hiérarchie, jusqu’aux plus hauts niveaux, car l’implémentation va avoir des répercussions. Tout d’abord sur les équipes elles-mêmes, car tous les profils ne sont pas prêts à changer du jour au lendemain, même avec un accompagnement personnalisé. Ensuite sur le delivery et les clients, car eux non plus ne sont pas forcément convaincus, ou enchantés de subir les effets de bord de vos transformations internes.

Le côté très positif est par contre d’éviter d’avoir à gérer deux équipes en parallèle pour le même service au client. Et surtout de ne pas conserver de legacy très longtemps.

Je ne peux que vous suggérer deux lectures pour en savoir plus sur les enjeux de cette transformation : Phoenix project, qui est une version romancée d’une évolution DevOps, et The DevOps Handbook, qui donne les clés concrètes pour mener cette transformation.

La prochaine fois, je parlerais de comment il faut choisir la bonne cible, interne ou externe, pour démarrer ce voyage vers le monde merveilleux du DevOps.

Le retour des chercheurs

Ce qui suit est une opinion personnelle, un ressenti de mon expérience, et peut ne pas refléter la réalité ou même le ressenti de l’ensemble de mes camardes, merci de ne pas leur en tenir rigueur 🙂

Lorsque j’ai débuté mon parcours professionnel, voire depuis mes études, nous avions une image assez négative des chercheurs en informatique. Ils étaient certes très intelligents, et avaient des connaissances approfondies, mais inutiles pour le quotidien. Savoir comment fonctionne un compilateur pouvait être passionnant,et servir dans quelques cas d’optimisation. De là à dire que c’était ce qui allait nous servir au quotidien…

Durant les 15 premières années de ce siècle, la tendance a perduré. Ce que j’ai pu observer autour de moi n’était pas très glorieux pour les chercheurs et universitaires.Nous les trouvions déconnectés de la réalité, perdus dans des théories ou sur des problématiques très éloignées des nôtres. Quelques frémissements se sont faits sentir dans certains domaines avec la montée en puissance des grands acteurs actuels, Google en tête. Les questions d’analyse sémantique et de volumétrie de données à traiter ont amené ces acteurs à travailler directement avec la recherche scientifique, car aucun produit sur étagère n’était prévu pour ce genre de cas.

Vu de mon fauteuil,cela aura été le début discret du changement que nous pouvons observer aujourd’hui. Les chercheurs sont sollicités, approchés, séduits. Nous avons besoin de leur vision en pointe, voire en avance sur la pointe, pour résoudre des problématiques spécifiques.

Ce qui a changé,selon moi, est l’état d’esprit, probablement poussé par les start-ups et la digitalisation massive. Nous sommes passés d’une approche “produit”(qu’est-ce que je peux faire avec ce que je connais) à une approche”solution métier” (que faut-il pour résoudre le problème posé par le business).

Et cela change tout.

Là où nous nous limitions à utiliser les capacités de quelques produits et à les mettre en service pour des fonctions prédéfinies, désormais nous sommes en mesure de creuser la problématique métier, qui n’a souvent rien à voir avec un problème IT. Cette problématique, nous la traduisons ensuite en critères techniques, et nous allons à la recherche du meilleur compromis pour résoudre la dite problématique. Et s’il le faut nous nous tournons vers les chercheurs.

Du côté des laboratoires, encore une fois selon moi, ce qui a changé en France est que ces équipes doivent maintenant aller chercher la plus grande part de leur budget dans des financements extérieurs. Et l’issue positive est que nous nous sommes rapprochés. Comme dans une belle histoire Disney de Noël (c’est de saison !),chacun a fait un pas vers l’autre et ensemble nous sommes plus forts. 😉

Le marché privé se rend compte que le mode de fonctionnement et de financement de la recherche publique est particulier. Le privé est capable d’entendre cela et de s’y adapter, car cela permet de créer des nouvelles solutions, avec l’appui des meilleurs cerveaux et technologies, même si elles n’existent pas encore.

Et la recherche publique a admis qu’elle devait travailler avec des projets peut-être plus précis, en termes de planning et d’objectifs, et surtout de ROI.

En bout de chaîne,on retrouve l’émergence des startups de type Deep Tech. Ces dernières sont des sociétés en cours de création qui associent un ou plusieurs chercheurs sur un sujet qui est très avancé et loin d’être industrialisé, et des gens business, qui sont capable de projeter les possibilités de cette technologie et d’en imaginer des usages. C’est l’association ultime de la recherche et du business !

Je l’ai beaucoup répété, cette analyse est issue d’un point de vue restreint, le mien, et ne reflète qu’une perception biaisée de la réalité. Je ne suis pas chercheur, je ne suis qu’un (presque) ingénieur infrastructure IT.

La fin des POCs

Pour avoir passé quelques années au sein d’une équipe dédiée à ce genre d’activité, il m’a été difficile d’accepter la réalité. Cependant, les faits sont là : les POCs sont mourants.

Petit retour en arrière : un POC, ou proof of concept, est souvent le point de départ d’un projet de grande envergure. Son objectif est de prouver la faisabilité technique du projet, y compris la maîtrise par les divers acteurs dudit projet. Cet outil a été souvent utilisé par les constructeurs et revendeurs, afin de convaincre un client sur une nouvelle technologie.

Hélas, le vent a tourné. Aujourd’hui les constructeurs, et les éditeurs, commencent à refuser les POCs.

Selon moi, la cause est assez simple. Le POC était souvent financé quasi-exclusivement par le fournisseur et ses partenaires. Le but avoué, comme dit ci-dessus : valider la technologie. Sauf que quelques grains de sables sont venus perturber ce petit monde.

En premier, certains clients et utilisateurs ont abusé du POC pour pouvoir s’amuser avec une nouvelle technologie, aux frais d’autrui. Et souvent sans aucun projet réel. Il s’agissait parfois de se faire mousser en interne, ou d’occuper son temps…

En second, et c’est particulièrement valable sur l’IoT ou l’IA, les fournisseurs eux-mêmes avaient un objectif primaire différent du client : créer un cas client afin de pouvoir communiquer, et prouver au monde qu’ils avaient la capacité technique de délivrer cette technologie.

Si on couple les deux problèmes, on voit nettement approcher la situation, vécue par beaucoup de grands comptes. Des POCs innombrables, sur les mêmes technologies, mais gérés par des entités internes et des fournisseurs différents. Cherchez un peu, en choisissant une grande entreprise au hasard, et regardez combien de POCs ont été fournis sur la même technologie, par des acteurs différents…

La tendance a donc basculé, et il devient beaucoup plus difficile, avec des acteurs clairvoyants en tout cas, de réaliser des POCs. Tout n’est pas totalement bloqué, il existe des cas où le POC possède une vraie valeur. Il est même parfois nommé Proof of Value, car on étend son objectif à prouver la valeur et le ROI d’un projet, au-delà de la simple faisabilité technique.

Et souvent, le financement du POC se fait de manière conjointe par l’ensemble des acteurs, y compris le client. Cela assure un intérêt réel et commun pour le projet dans sa globalité.

Donc oui, la récréation est finie. Nous pouvons toutefois encore jouer un peu, avec sérieux 😀

Des nouvelles fraîches

Et voilà, un nouveau post pour inaugurer des changements!

Premièrement, vous l’aurez noté, j’écris désormais aussi en français. Le but est de pouvoir toucher aussi mes camarades français, et de pouvoir partager des informations qui parfois ne sont qu’en français, et aussi de satisfaire quelques râleurs français ayant du mal avec la langue de Freddie Mercury. Dans la mesure du possible, je ferais les deux versions de mes articles, mais ce ne sera pas systématique 🙂

 

Pour le détail, j’ai créé deux tags qui permettront de trier les articles.

https://cloudinthealps.mandin.net/tag/english/

https://cloudinthealps.mandin.net/tag/francais/

 

Ensuite, j’inaugure le français pour pouvoir m’excuser de ne pas écrire grand-chose cette semaine, mais plutôt de partager des articles déjà publiés ailleurs.

Les deux premiers traitent de la vulgarisation de l’IA, et ont été écrits par Frédéric Wickert :

https://sway.office.com/VJDbCZHkfAHw1qeo?ref=Link

https://sway.office.com/LCmjkDlRi7kVwkFd?ref=Link

 

Ensuite un article au sujet de l’impact de l’IA sur le monde du travail et l’emploi, écrit par un type brillant :

http://www.aucoeurdesmetiers.fr/ia-des-postes-en-moins-des-emplois-en-plus/

 

Voilà, ce sera tout pour cette première fois en français!