Parce que le Machine Learning et le Deep Learning, deux pans clé de l’Intelligence artificielle ont la capacité de faire parler les données, Teradata a affirmé travailler à un framework censé faciliter l’application du Machine Learning sur de grands volumes de données.  Montré lors de Teradata Universe 2017, qui s’est tenu cette semaine à Nice, ce framework, nommé ThinkDeep, né dans les Teradata Labs, entend simplifier l’usage du ML en fournissant « un framework complet à destination des non data scientists pour la génération, la validation et la gestion des modèles de Machine Learning, et ce de façon scalable », a expliqué Stephen Brobst, le CTO de Teradata.

Le Machine Learning s’est petit à petit frayé un chemin dans les solutions d’entreprise. Ce composant de l’Intelligence artificielle, qui s’appuie sur de puissants algorithmes mathématiques d’auto-apprentissage, est par exemple utilisé par les grands de Web (comme Facebook ou Google) pour dynamiser par exemple leur infrastructure Cloud. Les plateformes de e-commerce l’exploitent quant à elles pour motoriser leur moteur de recommandation. D’autres s’en servent encore pour mettre en place des modules de reconnaissance faciale ou encore d’assistant virtuel. Aussi vastes soient les cas d’usage, ils ont tous un dénominateur commun : celui de pouvoir donner du sens à de grands volumes de données.

Car si en effet, les entreprises ont abordé le Big Data par le prisme premier de la collecte abondante de données au sein de data lakes, l’heure est désormais de donner de la valeur à ces données. Le Machine Learning et le Deep Learning (qui reprend le concept de réseaux neuronaux semblables au cerveau humain) est justement un moyen d’y parvenir.

Chez Teradata, on tente donc d’industrialiser cela, grâce à un framework. Comme le précise Stephen Brobst, si ThinkDeep permet d’intégrer du Deep Learning dans les processus des entreprises et s’intègre à des technologies clés, comme Spark Streaming et SQL, MLib ou encore R et TensorFlow, ce framework prend également en charge les déploiements des précieux modèles. Sans surprise, il peut également s’intégrer à Kylo, une technologie Open Source développée par Think Big (propriété de Teradata) qui sert à bâtir des data lakes.

De la génération à la maintenance des modèles

ThinkDeep prend en fait en compte l’ensemble du cycle : la génération des modèles, leur déploiement et enfin l’administration de l’ensemble des modèles qui auront été produits puis alimentés.  Stephen Brobst décrit un framework entièrement paramétrable qui permet par exemple de définir le nombre et le type de couches définissant les réseaux neuronaux.  Il supporte également des déploiements en cluster ou en offline (à des fins de tests par exemple). En cluster, le framework apporte une dimension de scalabilité qui permet de multiplier les couches d’un réseau neuronal. Les modèles peuvent également être versionnés pour suivre les modifications effectuées sur les modèles, les appliquer ou revenir à des versions antérieures.

Mais encore une fois, ce framework se distingue surtout par son approche qui entend d’abord simplifier la génération de modèles. Avec DeepThink, la création de modèles est placée entre les mains d’experts dédiés dont l’objectif est de répondre davantage à des besoins métiers, explique encore le CTO de Teradata. S’il propose également des outils de déploiements automatisés, DeepThink embarque une méthodologie d’auto-apprentissage qui permet de mettre à jour automatiquement, et à intervalle régulier, les modèles en leur injectant des données de façon incrémentale.

Source

LAISSER UN COMMENTAIRE