Christophe de Dinechin travaille dans le domaine de la virtualisation. Auparavant, il a été l’instigateur du système d’exploitation HPVM pour les serveurs d’entreprise chez Hewlett-Packard, a écrit le premier jeu de plateforme 3D de l’histoire ainsi que quelques un des premiers jeux viraux pour calculatrice, participé à la définition du langage C++ et de son standard binaire, inventé un langage de programmation pour la 3D interactive, créé une startup sans grand succès, contribué à la caméra DxO ONE. À ses heures perdues, Christophe est aussi passionné par la relativité et la mécanique quantique.
Conference Devops & cloud - Mercredi 3 juillet
SPICE Smart Streaming
SPICE est un protocole permettant d’interagir à distance avec des machines virtuelles. Il a été inventé à une époque où il n’y avait pas d’effets 3D, d’accélération matérielle ou d’écrans 4K. Ces nouvelles contraintes ont amené le protocole à être revu de fond en comble, passant d’un protocole orienté objet à un flux vidéo. Cela pose de nouveaux problèmes, en particulier en présence de réseaux dégradés ou de machines surchargées.
Cela fait 21 ans que Baptiste marie son travail et sa passion pour les nouvelles technologies. Débutant en tant que simple ingénieur système et réseau, il est maintenant architecte et expert en automatisation et virtualisation. Son credo : Comment faire plus avec moins. Plus de machines avec moins de matériel, plus d’applications avec moins de machines, plus de services avec moins d’applications. Ce credo l’a emmené à utiliser docker intensivement. Depuis 3 ans il travaille sur l’orchestrateur multi domaines Ciena BluePlanet, entièrement construit à base de micro-services en conteneurs; lui donnant un excellent aperçu des avantages et inconvénients de cette architecture.
Conference Devops & cloud - Mercredi 3 juillet
Faire rimer microservices avec Fun et Rentabilité
Après avoir fait le point sur les raisons légitimes de faire des microservices, nous verrons les bonnes pratiques et outils techniques qui éviteront à vos microservices de devenir un vrai cauchemar. Nous conclurons sur les étapes clés pour initier sereinement cette transition.
Développeur, manager, architecte…A travers ses différents rôles ces 15 dernières années, Armand a toujours été passionné par l’architecture et les concepts (Event Driven, Domain Driven Design, microservices…). Pas seulement pour la « Hype », mais assurément pour démanteler des monolithes, libérer des applications de leur dette technique. Après deux ans dans un contexte de migration d’un monolithe en microservices, il dispose d’un retour d’expérience très concret à partager.
Conference Devops & cloud - Mercredi 3 juillet
Faire rimer microservices avec Fun et Rentabilité
Après avoir fait le point sur les raisons légitimes de faire des microservices, nous verrons les bonnes pratiques et outils techniques qui éviteront à vos microservices de devenir un vrai cauchemar. Nous conclurons sur les étapes clés pour initier sereinement cette transition.
Architecte Software et DevOps à Supralog, j’interviens sur des nouveaux projets et des problématiques transverses notamment relative à l’architecture de projets full-stack et de mise en place d’outils DevOps. Je travaille également comme architecte solution pour AirFrance KLM Cargo sur une nouvelle initiative mondiale visant à créer la nouvelle et future norme mondiale pour l’échange de données entre les différents acteurs intervenant dans un transport de fret. Je suis aussi avant tout un « JavaScript-addict » ainsi qu’barista amateur !
Conference Devops & cloud - Mercredi 3 juillet
Cypress.io: Bringing Behavior Driven Development and End-to-End tests to development teams at Supralog
L’écriture de tests dits « End-to-end » ou « de bout en bout » est souvent détestée des développeurs. Cypress.io cherche aujourd’hui à répondre à cela en rendant facile l’installation de l’outil de test, l’écriture des tests, leur exécution et le débogage de ces tests. Dans cette présentation je partagerai pourquoi j’ai considéré l’utilisation de Cypress plutôt que d’autres outils comme Selenium IDE. Je ferai également une démo live montrant comment utiliser Cypress en pratique et dans une approche « Behavior-driven development », allant de l’écriture des tests jusqu’à leur exécution intégrée dans une chaine d’intégration continue et déploiement continu.
Dans le cadre de mes expériences précédentes j’ai eu l’occasion de faire du développement, de l’intégration, de l’administration système, de la gestion de projet et du management. Cela m’a permi d’acquérir une vision globale sur les métiers de l’IT et sur la chaîne complète, de la collecte du besoin jusqu’à la mise en production. En parallèle je me suis toujours intéressé aux aspects méthodologique et à l’outillage qui permettrait de gagner en qualité, en productivité voire en confort ! C’est ce qui m’a naturellement amené à m’intéresser au méthodes agiles comme Scrum, Lean et à la mouvance DevOps. Aujourd’hui je suis consultant sénior chez TREEPTIK et toutes ces expéricences me sont précieuses pour comprendre les besoins de mes clients et la meilleure manière de les accompagner dans l’atteinte de leurs objectifs stratégiques.
Workshops Devops & cloud - Mercredi 3 juillet - 2:00pm
Terraform
L’objectif de ce workshop est de vous permettre de découvrir les fonctionnalités principales de Terraform, outil incontournable dans le domaine de l’Infrastructure as Code. Nous manipulerons ensemble sur des exercices simples et vous comprendrez rapidement pourquoi cet outil est tant apprécié !
Pré-requis:
– Un ordi
– Un client SSH
– Savoir ajouter une clé privée SSH
Emeric CHARDINY
Développeur
ECY CONSEIL
Emeric CHARDINY est développeur, technical leader et architecte Java/JEE, DevOps, Docker et CI/CD. Il est passionné par toutes les nouvelles technologies et adepte des solutions open-source. Emeric est consultant indépendant avec plus de 15 ans d’expérience.
Workshops Devops & cloud - Mercredi 3 juillet - 2:00pm
Gitlab
Venez découvrir comment mettre en place une intégration continue avec Gitlab-CI et Docker, puis déployer votre application sur un cluster Kubernetes.
Thomas BAILET est CTO depuis 2013 chez Hurence, une société française 100% spécialisée dans le Big Data. Thomas partage son temps entre des activités de services pour ses clients et du développement open source. Il est le créateur de LogIsland, un outil open source d’event mining développé par Hurence. Capable de concevoir, développer, de lever des risques ou d’explorer de nouvelles pistes par prototypage, de modéliser des architectures, de conseiller sur des choix technologiques et d’analyser des données par du Machine Learning Thomas propose son savoir-faire aux clients d’Hurence afin de les aider à choisir les architectures BigData les plus pertinentes quant à leur cas d’usage et leur stratégie d’adoption des technologies. Mathématicien diplômé de l’université de Toulouse, il a effectué une carrière professionnelle dans le génie logiciel auprès de grandes entreprises dans le domaine de la micro-électronique comme Motorola, au sein de sociétés de service et de start-up innovantes. Il a fondé un studio de création multimédia, a participé à la conception de logiciels de synchronisation de données, d’applications mobiles et d’applications distribuées. Son expérience de l’élaboration de processus de développement agiles est riche.
Conference Internet of things - Mardi 2 Juillet
Moteur basé sur des règles et deep learning: une approche hybride de la supervision de fabrication dans l'industrie des semi-conducteurs
Du fait de la versatilité des marchés adressés, l’agilité opérationnelle est indispensable à la réussite industrielle. Cette agilité a un coût en termes de complexité et d’hétérogénéité des systèmes d’information et de contrôle. De plus, parallèlement au déploiement de l’automatisation, on constate une évolution des métiers de la fabrication: les produits sont fabriqués en quantités moindres mais avec de plus grandes variations. Face à cette complexité, l’être humain trouve de plus en plus sa place en tant que superviseur : il garantit le bon fonctionnement du système dans sa globalité en étant capable de débloquer au plus vite la moindre situation anormale. Néanmoins, l’IA et les systèmes basés sur des règles s’avèrent fournir des « compléments » intéressants pour les aider à se concentrer sur les problèmes réels et leurs causes possibles. En essayant d’éliminer les faux positifs dans l’alerting, véritable fléau de la supervision automatique, nous pouvons fournir des « assistants » véritablement utiles qui aident à diminuer le stress. Hurence, spécialiste reconnu des systèmes Big Data, met en place un système hybride, mélangeant règles et apprentissage supervisé, qui: détecte les situations anormales sur la ligne de production en temps réel; fournit une aide au diagnostic en temps réel sur l’origine potentielle des anomalies et les actions correctives à prendre. Ce système repose sur une architecture Big Data légère et temps réel capable de: traiter en temps réel les grands volumes de données industrielles qui pilotent l’usine exploiter l’expérience accumulée par les opérateurs grâce à l’utilisation d’un moteur de règles embarquer des apprentissages supervisés afin d’améliorer automatiquement la détection des situations anormales et leur diagnostic, avec l’objectif de réduire la quantité de faux positifs.
Tanay Pant est un auteur, développeur et passionné de technologie. Il travaille actuellement chez Crate.io en tant que promoteur. Il est surtout connu pour ses livres « Apprentissage de la réalité virtuelle sur le Web », « Construire un assistant virtuel pour Raspberry Pi » et « Apprentissage du développement d’applications Firefox OS ». Il a été reconnu dans la section »about » de Firefox pour ses contributions aux différents projets open source de la fondation Mozilla.
keynote speaker - conference Internet of things - Mardi 2 Juillet - 6:00 pm
Machine Data dans l'industrie 4.0: comment mieux les gérer?
L’essor de l’IOT et de l’infrastructure intelligente a généré de grands volumes de données complexes. Les solutions traditionnelles peinent à faire face à ce changement, ce qui entraîne une baisse des performances et une augmentation des coûts. Dans cet exposé, nous examinerons ce type de données provenant de capteurs intelligents installés dans les usines réelles. Les participants apprendront comment créer un pipeline de données pour l’analyse et la visualisation. À la fin de cette session, nous pourrons configurer un pipeline de données hautement évolutif pour les données de séries chronologiques complexes avec des performances de requêtes en temps réel.
Sébastien est le CTO (Chief Technology Officer) de GreenCom Networks, un éditeur de logiciel dans le domaine des smart grids. Porteur de la stratégie technologique de GreenCom Networks, il est en charge du design et de l’implémentation de la plateforme IoT (Internet des Objets) de GreenCom, des objets au cloud. Ingénieur diplômé de Polytech Nice-Sophia, Sébastien a travaillé une dizaine d’années au sein du groupe Communication & High Tech d’Accenture, concevant, développant et supportant des solutions OSS (Operations Support System) pour des acteurs majeurs de l’industrie des Télécommunications. En 2010, il co-fonde ubinode une start-up développant une plateforme pour l’Internet des Objets.
Workshops Internet of things - Mardi 2 Juillet - 2:00 pm
Non, Apache Kafka n'est pas (qu') un bus à messages
Apache Kafka, développé à l’origine par LinkedIn puis open sourcé en 2011, a réussi en quelques années à se faire une place de choix dans les architectures orientées données modernes. Au delà d’un bus à messages, Apache Kafka est un véritable écosystème permettant la mise en place de plateformes de streaming distribuées. Utiliser Apache Kafka comme un simple bus à messages serait se priver de ce qui fait de Kafka un être à part. En partant de quelques cas d’usages, nous verrons à quel point il est aisé d’intégrer Kafka à une architecture existante et surtout pourquoi essayer Kafka c’est l’adopter. Pendant cette session, nous passerons à travers les différents concepts d’Apache Kafka (Broker, Topic, Partition, Topic, Consumer, Consumer Groups), plongerons dans ce qui fait la spécificité de Kafka (notamment les topics compactés et la dualité stream / table) , détaillerons les procédés de passage à l’échelle et ferons un tour d’horizon de l’écosystème (Streams, Connect, KSQL, etc). Nous verrons enfin à quel point il est facile d’intégrer Kafka dans une architecture existante.
Pré-requis:
un laptop, avec un environnement docker fonctionnel ainsi qu’un environnement de développement java. Nous pensons aborder l’utilisation de Kafka avec d’autres langages ( javascript, python) mais java reste quand même le langage principal dans l’écosystème kafka. »
conference Internet of things - Mardi 2 Juillet
Allez, c'est décidé, demain je me lance dans l'IoT !
Cette fois ci, c’est décidé, vous vous lancez. Votre produit IoT va changer le monde. Bien. Mais par ou commencer? Protocoles, passerelle, sécurité, activation, plateforme, cloud ça fait beaucoup… Pas de panique, on va regarder ensemble.
Passionné d’informatique et de logiciels libres depuis plus de 20 ans, je suis actuellement architecte et développeur principal chez NXP Semiconductors pour des systèmes embarqués basés sur des processeurs i.MX (pour des tableaux de bords automobiles, systèmes médicaux, industriels et de traitement d’images). Je suis spécialisé en systèmes graphiques, multimédia, ainsi qu’en sécurité et sûreté de systèmes critiques.
Workshops Internet of things - Mardi 2 Juillet - 2:00 pm
Low Level 3D Embedded Graphics with Linux, OpenGL ES and Buildroot
Cet atelier introduit le fonctionnement des processeurs graphiques embarqués (GPU), et comment ils peuvent être programmés de manière relativement bas niveau sous un système Linux. Des exemples de code seront présentés: programmation de « shaders » OpenGL ES, compilation et construction d’un système embarqué complet avec Buildroot, ainsi que des exemples de traitement d’images caméra en temps réel avec V4L2 et GStreamer…
Pré-requis:
Les personnes intéressées par les exemples de codage doivent venir avec un ordinateur portable fonctionnant sous un système Linux (par exemple, Debian 9, Ubuntu 18, Fedora 29,…) avec un espace disque disponible (environ 20 Go). Il s’agit d’une session technique dans laquelle de nombreux exemples de programmation seront présentés.
Les participants peuvent suivre la présentation sans aucun équipement. Tous les documents et le code présentés seront publiés, de manière à pouvoir être reproduits ultérieurement.
Les participants souhaitant participer à une session de codage en direct auront besoin d’un ordinateur portable sous Linux (testé avec Ubuntu 18). 20 Go d’espace disque disponible sont nécessaires pour exécuter toutes les démos.
Julien Holtzer est co-fondateur du Fab Lab de Sophia Antipolis avec Telecom Valley et passionné d’objets connectés et d’intelligence artificielle depuis 15 ans. Il est également directeur technique pour Sogeti dans le groupe Capgemini à Sophia Antipolis, en charge des nouvelles technologies, de l’innovation et des pratiques de développement rapide (low-code, data, mobile, IoT).
Workshops Internet of things - Mardi 2 Juillet - 2:00 pm
PROTOTYPER UN OBJET EN 3H
Concevoir mon Objet Connecté dans le plus grand FabLab de la Côte d’Azur: conception, prototypage, réalisation (3x1h)
Eoin Thomas a terminé son doctorat sur la classification des signaux cérébraux à l’University College Cork en Irlande. Il a poursuivi ses recherches biomédicales à l’INRIA Sophia Antipolis en 2011 avant de rejoindre l’équipe Amadeus Travel Intelligence en 2014. Eoin fait actuellement partie de l’équipe de recherche sur l’IA où il dirige l’équipe de recherches exploratoires.
conference intelligence artificielle - Lundi 1 Juillet
AI research for travel
Dans cette session, nous discuterons des tendances actuelles en matière d’intelligence artificielle et verrons comment celles-ci peuvent être appliquées dans l’industrie du voyage. En commençant par la modélisation des choix des voyageurs et les systèmes de recommandation, puis en abordant les sujets comme l’apprentissage par renforcement et la génération de données. Nous montrerons comment ces techniques peuvent être exploitées pour améliorer l’expérience du voyage et du voyageur.
Rocío a terminé son doctorat en 2015 sur le sujet de la modélisation et classification des signaux d’électrophysiologie cardiaque dans l’équipe Asclepios à l’INRIA Sophia Antipolis. Elle a continué ses recherches en apprentissage automatique appliqués à l’imagerie médicale en académie et industrie jusqu’à Octobre 2018, quand elle a rejoint l’équipe de Recherche en Sécurité chez SAP. Elle travaille actuellement sur l’utilisation des algorithmes d’apprentissage automatique sur des applications de sécurité.
conference intelligence artificielle - Lundi 1 Juillet
AI for Open Source Vulnerability Management
Application developers making use of open source components need to know whether those components comprise security vulnerabilities, understand their risk in the particular application context and mitigate accordingly. This vulnerability management can be automated using an open source solution called vulnerability-assessment-tool, developed by SAP and open sourced in 2018. This solution requires a vulnerability database with detailed information about the vulnerable source code and the respective security patch, all of which is difficult to obtain due to non-reliable standard sources of advisories and vulnerability data (such the National Vulnerability Database, NVD). In our previous research work, we treated source code changes as documents in natural language processing, potentially ignoring the structured nature of source code, in order to populate the database. We will give a brief overview of the directions of our most recent work, where we incorporate the semantic properties of code into our analysis by leveraging on state-of-the art approaches to generate distributed code representations by analyzing and aggregating paths extracted from the abstract syntax tree of the code.
Henrik works as a Senior Researcher in the SAP Security Research team since 2007. During this time, he was coordinator and scientific lead of the European FP7 research project PoSecCo, built up an SAP-wide security training for application developers and performed security assessments of SAP applications. Currently, he researches new approaches and tooling for ensuring a secure consumption of third-party components in the software supply chain. Before joining the SAP research group, Henrik held different positions as a software engineer, and studied computer science and business administration at the University of Mannheim. He holds a diploma from the University of Mannheim and is a CISSP.
conference intelligence artificielle - Lundi 1 Juillet
AI for Open Source Vulnerability Management
Application developers making use of open source components need to know whether those components comprise security vulnerabilities, understand their risk in the particular application context and mitigate accordingly. This vulnerability management can be automated using an open source solution called vulnerability-assessment-tool, developed by SAP and open sourced in 2018. This solution requires a vulnerability database with detailed information about the vulnerable source code and the respective security patch, all of which is difficult to obtain due to non-reliable standard sources of advisories and vulnerability data (such the National Vulnerability Database, NVD). In our previous research work, we treated source code changes as documents in natural language processing, potentially ignoring the structured nature of source code, in order to populate the database. We will give a brief overview of the directions of our most recent work, where we incorporate the semantic properties of code into our analysis by leveraging on state-of-the art approaches to generate distributed code representations by analyzing and aggregating paths extracted from the abstract syntax tree of the code.
Denis Bastiment, né en 1963, co-fondateur et CTO
Msc Maths et Technologie du Logiciel à l’Université Pierre & Marie Curie Paris
Expert en innovation et technologies d’usage depuis 25 ans
A créé et dirigé avec succès plusieurs startups, toutes dédiées à l’innovation d’usage et au déploiement de nouvelles technologies. Avec Kamayo, Streamezzo, Santech, il a déjà réussi l’hyper croissance d’une startup et son développement international
conference intelligence artificielle - Lundi 1 Juillet
Rendre le Machine Learning accessible pour tous les professionnels
J’ai obtenu mon doctorat en mai 2017 à l’Université de La Rochelle et mes activités de recherche ont été concentrées principalement sur l’extraction de caractéristiques visuelles et la selection de caracteristiques basée sur le principe d’aprendissage par ensemble pour la détection d’objets en mouvement. Je travaille actuellement en tant qu’ingénieur de recherche en vision par ordinateur chez ActiveEon, bureau de Paris. Je me concentre sur le développement des solutions avancées pour résoudre les problèmes de vision par ordinateur, en mettant l’accent sur la reconnaissance d’image, la détection d’objets et la segmentation d’images. En outre, je travaille sur une plateforme open source appelée Machine Learning Studio (MLOS) qui permet aux ingénieurs et scientifiques de données de créer rapidement des workflows d’inteligence artificielle pour diverses applications, telles que : reconnaissance faciale, la détection d’intrusion, l’inspection industrielle, etc.
workshops intelligence artificielle - Lundi 1 Juillet
Machine Learning Open Studio (MLOS)
Le but de cet atelier est de fournir un aperçu complet de la plateforme Machine Learning Open Studio (MLOS) d’ActiveEon. MLOS permet aux ingénieurs et scientifiques de données de créer rapidement des workflows d’inteligence artificielle (IA). Il fournit un ensemble de tâches génériques de machine learning et deep learning qui peuvent être reliées entre eux pour créer des workflows IA pour différentes applications, telles que : la détection de fraude, la détection d’anomalies, la reconnaissance d’images, etc. MLOS est prêt à utiliser des bibliothèques machine et deep learning, telles que scikit-learn, PyTorch, TensorFlow, Keras, CNTK, entre autres.
Les participants doivent venir avec un ordinateur portable avec au moins 8 Go de RAM.
Julien est le responsable du développement technologique de Datafari. C’est un expert en recherche d’informations, spécialisé dans Elasticsearch et Datafari. Il a travaillé chez Orange en tant que leader technique. Il est diplômé du Master en informatique (MIAGE) de l’université de Nice Sophia Antipolis.
workshops intelligence artificielle - Lundi 1 Juillet
Indexer ses Data en open source
Datafari est un moteur de recherche open source big data. Il peut être utile aussi bien pour indexer votre disque dur, que les partages réseaux de votre boîte, mais aussi des données du web. De nombreux connecteurs disponibles le rende multisource (sharepoint, smb, BDD, web…). La différence avec Elasticsearch ? C’est une couche au-dessus: Datafari va non seulement proposer un moteur de recherche, mais aussi le framework pour le crawling, la gestion de la sécurité, une interface web, et une interface d’administration complète. Dans ce workshop d’initiation, nous vous présenterons l’outil et son architecture, puis nous plongerons directement dans le bain: installation de Datafari CE sur vos postes, premières indexation et configuration, et customisation de l’interface graphique. Avec tout ça, vous pourrez rentrer chez vous avec une brique facile à installer et vous permettant d’avoir une fonction de recherche multisources et multiformats.
Pré-requis:
les participants doivent venir avec une machine d’au moins 8Go de RAM. De préférences, les machines doivent être sous Linux pour pouvoir faire la phase d’installation. Si les machines sont sous windows, on sautera l’étape d’installation.