Vendredi 24 Février 2017

La question du développement spécifique à l’ère du Big Data

Mardi 27 Décembre 2016
Face à la nécessité de faire un choix technologique, traditionnellement, les entreprises hésitent entre deux options : prendre en charge elles-mêmes les développements ou recourir à des solutions packagées. L’adoption et la diffusion des technologies du big bata, notamment Hadoop, les placent aujourd’hui devant la même interrogation. Avant de démarrer un projet big data, explique François Mero, Senior VP of Sales EMEA de Talend, les entreprises doivent se poser les bonnes questions pour éviter tout échec à l’arrivée.

Les rares entreprises qui s’engagent aujourd’hui dans la voie des développements spécifiques, le font soit par manque d’information car elles ne savent tout simplement pas qu’il existe des outils pré packagés ou poursuivent une chimère. Elles font souvent l’erreur de jugement qu’un projet big data se résume à l’alimentation des données dans un cluster Hadoop. Elles imaginent que développer en interne une infrastructure dédiée à l’alimentation et l’analyse des big data permettra d’économiser 20% par rapport au recours à une solution packagée. Cependant, selon Gartner, la démarche aboutit à contrario à une augmentation de 200% des coûts de maintenance. Et ce n’est pas tout ! L’expérience accumulée depuis dix ans dans de nombreux projets d’intégration de toute nature, désormais en production, permet de mettre en relief les limites d’une telle approche. Dans les faits, elle expose l’entreprise à des risques de trois natures : opérationnelle, stratégique et économique.


Suivre le rythme des évolutions technologiques

Hadoop est un framework open source, accessible sans coût de licence. Il peut être effectivement tentant de s’approprier la technologie en interne pour développer son infrastructure, en pensant économiser sur son budget. Pourtant, dans la réalité, cette stratégie est très souvent vouée à l’échec. D’une part, l’écosystème des big data est en évolution constante. Le taux de renouvellement des plateformes technologiques se fait à un rythme soutenu, à mesure qu’évoluent les besoins des entreprises. En quelques années, celles-ci sont passées de MapReduce à Storm, puis à Spark, et bientôt peut être à Apex. La vélocité d’innovation de l’écosystème big data représente en soit un challenge inédit pour la maintenance et pour ceux qui utilisent ces technologies. Si l’infrastructure mise en œuvre pour la collecte, la mise en qualité et la manipulation des données n’est pas elle-même pérenne et capable de garantir facilité de maintenance et évolutivité, les projets qui s’appuient dessus sont à risque. Ils devront tôt ou tard être abandonnés car obsolètes, supporter des coûts élevés de maintenance, ou réaliseront que leurs experts IT internes passent de plus en plus de temps sur des tâches n’apportant pas de valeur ajoutée.

D’autre part, la multiplication des sources de données accroit la complexité d’administration et de gouvernance. Une approche non outillée devient au mieux fastidieuse et laborieuse au pire impossible. Mais au-delà, la sécurité, la gouvernance (pour la traçabilité des mouvements et des transformations appliquées aux données), la mise en qualité des données, les tests, le déploiement, les éventuelles obligations règlementaires etc. sont autant de domaines qui bénéficient de l’utilisation de solutions packagées, pensées et conçues pour les cas d’usage les plus fréquents des entreprises. Notre industrie a inventé des outils pour aider les clients à sécuriser leurs projets, à garantir la bonne gouvernance et insuffler de la productivité dans le travail des équipes informatiques. Pourquoi ces bonnes pratiques essentielles à la réussite d’un projet IT disparaitraient-elles dans le monde du big data ?


D’autres risques économiques et stratégiques

On l’a vu, les coûts de maintenance s’accroissent à mesure que les développements spécifiques se multiplient. De plus, les équipes de développements – déjà caractérisées par la rareté de leurs profils et donc leur coût élevé – sont mobilisées sur des tâches de maintenance et d’évolution et ne peuvent en conséquence participer aux nouveaux projets. L’innovation de l’entreprise est ainsi freinée alors que tout l’intérêt d’utiliser des solutions packagées réside au contraire dans l’agilité et la vitesse de développement. L’entreprise doit donc recruter de nouveaux développeurs pour initier de nouveaux projets, voire les externaliser ; ce qui pèse sur son budget informatique.

Enfin, comme expliqué précédemment, les développements spécifiques créent une importante dépendance vis-à-vis de spécialistes qualifiés sur ces technologies. Que se passera-t-il si ces derniers décident de quitter l’entreprise ? Et comment garantir la pérennité des systèmes stratégiques dans ce contexte ?


Attention à la taille du projet

Le développement spécifique reste une option dès lors qu’il s’agit de projets simples et très ciblés, qui nécessiteront peu de maintenance. Dans quelques rares cas, il peut s’avérer nécessaire s’il n’existe pas sur le marché de solution capable de répondre au besoin.

Mais dès que la taille du projet exige la collaboration de plusieurs intervenants au sein de l’entreprise, les solutions packagées offrent plus de garanties : un environnement de programmation graphique dont l’ergonomie a été pensée pour les utilisateurs métiers, la possibilité de réutiliser des éléments de développements précédents, un accompagnement par l’éditeur pour le paramétrage, etc. Et surtout, elles bénéficient de la profonde maîtrise des problématiques les plus courantes des entreprises par les éditeurs des solutions qui furent parmi les premières entreprises à adopter Hadoop.

En conclusion, Gartner, dans l’étude citée plus haut, dévoile qu’au final seulement 11% des entreprises restent des adeptes du développement spécifique.

SQ 250-300
Les 10 derniers articles
Services
  • EST
  • Proposer un communiqué de presse
Communiqués de presse