Depuis longtemps, Hadoop s’est imposé comme environnement dédié au Big Data. Mais les technologies de son écosystème restent assez diverses, notamment afin de rendre accessibles aux analystes la puissance de l’outil de base. Spécialiste des traitements Big Data, Juvénal Chokogoue vient de publier aux éditions Eyrolles un nouvel ouvrage dédié à un panorama des principales technologies de cet écosystème, « Maîtriser l’utilisation des technologies Hadoop ».

Bien que, théoriquement, les grands principes soient connus, l’auteur veille avant tout à repréciser les concepts de base de Hadoop (Map Reduce, HDFS, etc.). 18 technologies de l’écosystème Hadoop (Spark, Hive/HiveQL, Pig, Impala, ElasticSearch, HBase, Lucene, HAWQ, MapReduce, Mahout, HAMA, Tez, Phoenix, YARN, ZooKeeper, Storm, Oozie et Sqoop) sont ensuite explicitées.

L’ouvrage n’est pas un mode d’emploi de chaque technologie, ni un manuel d’apprentissage pour concrètement les mettre en oeuvre. Il s’agit par contre de comprendre leurs utilités et leurs principes de fonctionnement avant de, le cas échéant, creuser tel ou tel aspect. Pour cela, le texte est bien structuré et clair, comportant de nombreux schémas explicatifs et des encadrés mettant en avant des points importants ou sensibles. Chaque fin de partie comprend un questionnaire et un résumé, afin de s’assurer que les concepts ont été bien compris.