Bonjour,
désolé si je le poste est pas au meilleur endroit, j'ai parcouru les différents forums et j'ai pas trouvé mieux.
Je me permets de venir dire bonjour pour essayer d'avoir un échange, voir partager des ressources sur un problème de gestion de donnée en entreprise.
contexte
Plusieurs centaine d'application, chacune avec sa stack, sa base de donnée, ses middleware, le tout entremêlé de tel sorte que si tu touche quelque chose à gauche, ça pète à droite.
vision
basé les nouveaux projet sur du micro service, désilloter tout ce qui peut l'être, lancer un programme d'obsolescence sur ce qui peut l'être et laisser mourir de sa belle mort tout ce qui est trop touchy.
il va de sois que le métier n'a pas un euro à mettre la dedans.
idée
Se connecter à toutes les sources d'information pour dans un premier temps copier toutes les informations vers un datalake et ensuite placer un connecteur pour avoir les nouvelles données au fil de l'eau.
Ainsi, on ne touche pas au métier, et je me retrouve avec un énorme lake désordonnée mais avec toutes les informations actuellement jugée utile du SI et pouvoir repartir sur quelque chose de propre pour les nouveaux projets (qui se fourniront à partir de la sans rajouter des liens étranges dans l'existant.
choix et question
Je vois assez bien un système kafka pour gérer cela. les kafka connecte me permettent de me connecter à énormément de source de donnée (base de donnée, fichier texte, sap, bob ...) mais étrangement, je me vois mal stocker des tables dans des topics.
j'ai l'impression que kafka doit être l'outil central, mais je n'arrive pas encore à concevoir ou stocker les données, j'ai besoin d'un peu d'aide/échange à ce sujet.
si ça parle à certains, have fun.
Partager