• LumeNews

    #5

    Du machine learning, un peu de bûche au chocolat et beaucoup de news

  • Ze Business Case

    En business un succès ne vient jamais seul… il vient à deux! Un client satisfait fait (de nous LumenAi) un prestataire comblé.

    L’aventure data-science conduite en 2018 avec le département Marketing du Crédit Agricole, Caisse Régionale Pyrénées Gascogne restera pour nous un épisode de qualité et des rencontres passionnantes dans le cadre de l’amélioration des process marketing de l’équipe de Thomas Guyonet qui dirige ce département.

    Cette équipe, nous la félicitons pour avoir su prendre le pari du changement, de la surcharge temporaire des collaborateurs pour tester un nouveau modèle et s’adapter à la nouveauté; tout ceci demande du courage lorsque l’on ne sait pas où l’on va initialement. Ce qui vaut une victoire ce sont les ingrédients nécessaires tant chez le client que chez le prestataire : les compétences et le dynamisme des relations.
    Lorsque chacun parvient à jouer le jeu et fait en sorte d’avantager l’autre, en transparence, professionnalisme et efficacité, cela donne un succès.

    La Caisse Régionale du Crédit Agricole Pyrénées Gascogne est devenue plus qu’un client désormais, c’est un réel partenaire, avec qui nous savons aujourd’hui pouvoir développer une collaboration vertueuse, un échange gagnant-gagnant, qui rapproche efficacement et nécessairement le métier de la data-science des métiers de la banque pour mettre au point les bonnes solutions à valeur ajoutée.
    Chez LumenAi nous y voyons un engagement fort dans la démarche d’amélioration continue des process Crédit Agricole Pyrénées Gascogne par l’analyse de la donnée.
    L’engagement a d’ailleurs déjà symboliquement été signé en septembre par la présence du Crédit Agricole comme partenaire sponsor à IA-Pau, pour cette première édition 2018.

  • European Cyber Week

    19-22 novembre 2018

    Rennes a accueilli la 3ème édition de la cyber week du 19 au 22 novembre dernier avec au programme des thématiques techniques autour de la cybersecurité et de l'intelligence artificielle.

    Au coté de Systancia, AriadNext, Yagaan, Samossys, LumenAI est intervenue lors d'une table ronde technique sur les applications de l'IA et la cyber en 6 démonstrations. En particulier, Camille Saumard s'est focalisée sur une présentation de l'algorithme de détection de communautés en temps réel développé et testé au sein de LumenAI Lab . Il s'agit d'un nouvel algorithme de online learning qui maintient dynamiquement une structure de communautés dans un graphe de grande taille qui se modifie avec le temps. Cette nouvelle technique fait l'objet d'un Rapid et d'un partenariat avec Bertin IT.

  • On the Blog Again Again !

    l'IA & la santé : la face cachée de l'iceberg

     

    Aujourd’hui quand nous parlons d’intelligence artificielle dans le secteur de la santé, nous abordons beaucoup de sujets tels que, la détection de maladies, la prédiction personnalisée d’un état de santé ou la lutte contre la contrefaçon… Ce sont des sujets très prometteurs mais encore à des stades embryonnaires dû à des contraintes règlementaires et de ressources.

    Pourtant, l’I.A. peut déjà contribuer dans ce secteur, en visant directement le fonctionnement du système de santé ! Avec l’aide au recouvrement, l’optimisation de la logistique (disponibilité des lits, salles d’opération, approvisionnement du matériel pharmaceutique) ou encore une meilleure prise en charge des patients, les établissements de soins sont en mesure de gagner en efficience et se focaliser sur de nouveaux axes de développement.

    Toute solution d’I.A. doit être simple d'utilisation et complètement intégrée à l’écosystème, de manière à ne pas imposer de nouvelles tâches et donc créer de la réticence vis à vis de la modernisation du système.

    Avant de se lancer dans ce genre de projet il est donc important de structurer sa donnée afin de mieux l’exploiter. Il faut alors dédoublonner/harmoniser les différentes sources de données, assurer l’interopérabilité entre les logiciels et intégrer les sources de données des appareils médicaux (dématérialiser les données collectées à la main)

    À ce stade, le Machine Learning peut être intégré plus facilement et permet de réaliser de nombreuse prouesses comme:

    • Prédire le nombre de visites à l’hôpital dans les prochains jours. (depuis 2016 l’Assistance Publique-Hôpitaux de Paris (AP-HP) ont recours au big data pour prédire le nombre de visites par jour ainsi que les jours et les heures d’admission. Une manière d’adapter les effectifs aux pics de fréquentation de l’établissement.)
    • Classifier et prioriser les dossiers patients durant l’admission.
    • Identifier des fraudes, du gaspillage ou des abus sur des modèles cliniques, des opérations…
    • Détecter une future hospitalisation d’un individu.
    • Prédire son taux d’admission. (Afin de prédire les taux d’admission, les Hôpitaux de Paris ont décidé d’utiliser les technologies du Big Data et du Machine Learning. De cette façon, les ressources peuvent être déployées de façon plus efficace et les patients peuvent être mieux pris en charge.)
    • Projeter l’évolution de son état de santé.
    • Déterminer s’il est susceptible de déclarer une maladie en phase post-hospitalisation.
    • Détecter des anomalies dans un formulaire, dossier, et automatiser le travail manuel de rectification de l’info.
    • Ces algorithmes seront donc un premier pas vers un monde où la santé intégrera des technologies plus complexes qui assisteront les professionnels du secteur de manière à les inviter à se recentrer sur une activité de plus en plus avancée et de pointe.

      Auteur : Paul MARION, LumenAI Pau

  • Meetup "Big Data & Machine Learning" à Paris

    "LumenAI est désormais l'organisateur du meetup Parisien "Big Data & Machine Learning". Il s'agit de l'une des plus grandes communautés Parisiennes du machine learning et de l'intelligence artificielle avec plus de 4200 membres.
    L'objectif de LumenAI sera d'organiser une session par mois avec des interventions d'experts industriels et de chercheurs en data science pour partager avec l'audience leurs retours d'expérience et leurs cas d'usage des nouvelles techniques et algorithmes d'IA."
    Wajdi FARHANI, LumenAI Paris

  • L'intervIA

    Retrouvez à chaque LumeNews
    le portrait d'un membre de l'équipe LumenAI :)

    Frédéric
    BERNIER

    Marketing, Com & Événementiel Ninja

    Thé ou café ?

    Je me régale de thés divers, en particulier les chinois et japonais :)

    Carnivore ou vegan ?

    Flexitarien comme on dit ;)

    Une passion ?

    Rencontrer et connecter les talents dans tous mes univers professionnels comme personnels.
    Mes compétences en marketing, com, événementiel sont alors bien utiles.

    Ta plus belle expérience pro ?

    Concernant mes activités de Lumen, je pense que la coordination de l'événement IAPau 2018 fait partie de mes meilleurs souvenirs car j'ai eu le privilège de rencontrer de nombreux experts du ML et de travailler avec des partenaires passionnés et motivés. Une belle histoire que se renouvelle avec encore plus d'énergie et qui fédère notre territoire palois.

    Tes convictions quant à l'IA, la data, le machine learning ?

    Concernant les entreprises, il me parait évident que l'exploitation de leurs données est sous estimée, sous valorisée. L'intégration de machine learning dans des processus permet de nombreuses opportunités de performances.
    Nous sommes au carrefour du monde académique, de la recherche en maths, stats et celui de l'ingénierie informatique. Les entreprises qui s'y intéressent ont bien compris la valeur ajoutée de la data science, notamment sur le sujet de la maintenance prédictive, de l'aide à la décision stratégique, de l'optimisation des actions marketing, des gains de productivité.
    Je suis persuadé également que nous vivons une ère où les sciences rencontrent des enjeux citoyens forts et pas seulement des enjeux économiques.

    Tes missions chez LumenAI ?

    Ma mission majeure est d'accompagner notre équipe, les Lumens, à devenir ensemble, un acteur incontournable du machine learning temps réel en France et dans le monde. Pour ce faire, je gère notre stratégie de marques, je crée et pilote divers supports et canaux de communication, j'entreprends et accompagne des projets événementiels, en particulier IAPau. Je fais au mieux pour traduire en images qui nous sommes et ce que nous proposons de façon remarquable. Il m'arrive également d'animer divers ateliers internes de créativité, d'intelligence collective, et suis force de proposition pour instaurer notre marque employeur.

  • Meetup flashback

    Meetup n°2 || TAC ECONOMICS - Machine Learning pour l'économie et la finance

     

    Le big data, l’intelligence artificielle et plus généralement les nouvelles méthodes de machine learning ont popularisé des méthodes d’analyse qui ont aujourd’hui un impact majeur sur de nombreux métiers ou domaines d’activité. Longtemps préservés, les métiers de l’analyse économique et de la finance sont aujourd’hui profondément affectés par ces transformations, ou le « data-scientist » côtoie aujourd’hui l’économètre « traditionnel ».

     

    Dans cet exposé nous reviendrons rapidement sur l’évolution des méthodes de machine learning, et notamment sur l’idée « inexacte » que ces méthodes sont certes puissantes… mais inutilisables en entreprise ou dans la banque du fait de leur caractère « boites noires ».

     

    Au travers de plusieurs exemples de mise en œuvre ces dernières années par TAC ECONOMICS, nous présenterons un certain nombre d’application d’outils dits de « machine learning » à des questions économiques et financières : -Peut-on améliorer l’accès au crédit des PME françaises avec des cartes de Kohonen ? -Peut-on prévoir les crises économiques et financières avec des réseaux de neurones ? -Peut-on mieux anticiper les reprises économiques avec des classifications non supervisées ? -Peut-on mesurer la confiance à l’international avec des outils de text-mining ?

     

    Short bio: Sylvain pioneered TAC ECONOMICS quantitative work in the field of non-linear modeling and artificial intelligence, and has been the principal architect of all quantitative developments at TAC ECONOMICS. Sylvain is a lecturer at Rennes University and is a member of many different scientific committees in academic/international conferences in the fields of quantitative economics, finance, and data mining.

  • La parole à...

    Notre équipe éditoriale à interviewé pour vous...

    Guillaume LECUÉ

    Mathématicien de la donnée, au CNRS

    "...Pour les applications des maths, "la déraisonnable efficacité des mathématiques" dans presque tous les domaines d'activité des Hommes m'a questionné comme beaucoup d'autres avant moi. Je me rappelle encore de ce cours de philosophie de Terminale sur la "critique de la raison pure" de Kant où notre professeur nous expliquait que seule la partie compréhensible du monde était accessible à l'Homme..."
     
    LIRE LA SUITE

     

  • Proposition de stage à RENNES

    Modèle d'interprétation pour le clustering

    Notre entreprise :

     

    LumenAI est une start-up innovante fondée par des chercheurs en mathématiques spécialisés dans l'apprentissage automatique. Elle propose des solutions de Data Science pour les industriels. Plus précisément, LumenAI est spécialisée dans la conception et la maintenance des algorithmes de machine learning en temps réel ainsi que des infrastructures Big data. Créée en 2015, LumenAI essaie de réduire l’écart entre le monde de la recherche scientifique avec sa capacité d'innovation et les industriels avec leurs besoins dans la matière.

     

    Contexte :

    Les approches de clustering (ou classification non supervisée) sont souvent utilisées comme première étape pour résumer, compresser, visualiser ou pré-traiter les données. L’idée sous-jacente d’une approche non supervisée est de regrouper les données similaires entre elles sans avoir aucun a priori sur les groupes auxquels elles pourraient appartenir.
    L’une des limites de ce type d’approche souvent perçues par les experts métiers est la difficulté d’analyse d’un résultat de clustering: Comment expliquer la séparabilité des clusters ? Ou autrement dit, quelles variables expliquent quels clusters ? Y-a-t-il des clusters extrêmes ? etc.

    Dans le cadre de ce stage, vous serez amené(e) à considérer deux enjeux :
    un enjeu d'interprétation : Comment résumer l’information inhérente au clustering afin qu’il soit exploitable d’un point de vue expert métier ?
    un enjeu de visualisation des résultats : Comment faciliter la lecture interprétative du clustering?
    Ces enjeux seront directement appliqués sur des données réelles issues de SI.

     

    Mission :

    En interaction avec le reste de l'équipe vous allez être amené à implémenter un algorithme qui permettra de sélectionner des sous-ensembles de variables explicatives d’un ou plusieurs clusters et de proposer une visualisation pertinente des résultats obtenus.

    Pour y arriver, nous proposons de procéder de la manière suivante:

    Etude de quelques articles référence de la littérature et implémentation:

    Vous allez dans un premier temps vous familiariser avec le contexte de la sélection de variables et des modèles interprétatifs qui sont tous les deux utilisés dans des cadres supervisés et de prédiction. A l’issue de l’étude de ces articles, le choix d’une approche sera sélectionnée et vous serez amené(e) à l’adapter à notre contexte et à l’implémenter en langage Python (de préférence).
    Cette implémentation sera testée sur des données de référence en statistique et sur des données réelles.

    Extension au contexte de séries temporelles multivariées:

    Dans un second temps, le stagiaire sera amené à considérer non plus des vecteurs “ponctuels” de données mais des séries temporelles multivariées. Dans ce nouveau contexte, il proposera une manière d'étendre l’approche développée dans la première partie de son stage au cadre de clustering de séries temporelles.


    Profil :

    Formation Ingénieur ou Master 2 Big data et traitement de données / informatique.
    Programmation : Python (ou R)
    Bon niveau en statistiques, probabilités.
    Un bon niveau d’anglais est demandé.

     

    Rémunération : ~ 500 euros net/mois


    Contact :
    Camille Saumard

    LumenAI Rennes

    csaumard@lumenai.fr