Bienvenue au cœur de la programmation du Breizh Data Day 2026, une édition charnière où nous explorons une question fondamentale : l’intelligence artificielle est-elle un progrès nécessaire ou une dérive annoncée ? De l’ouverture magistrale par le mathématicien Cédric Villani aux sessions techniques les plus pointues, ce programme offre un panorama complet du champ des possibles de la donnée.
À travers des RETEX (retours d’expérience) concrets portés par des leaders industriels et académiques, nous plongeons dans la réalité opérationnelle de l’IA générative. Que ce soit le déploiement de RAG sécurisés dans le secteur médical, l’optimisation des réseaux 5G/6G par deep learning, ou les défis du MLOps pour une souveraineté numérique durable, chaque conférence est une preuve de la vitalité de l’écosystème tech en Bretagne. Entre ateliers sur la data visualisation et débats sur l’impact sociologique de l’IA, le Breizh Data Day à Saint-Brieuc s’impose comme le laboratoire où se dessine une technologie à la fois performante, éthique et européenne.
Découvrez le programme de cette 7ᵉ édition du Breizh Data Day au Palais des congrès de Saint-Brieuc.
Le programme et les horaires peuvent évoluer.
Mathématicien de renommée internationale, médaille Fields, Cédric Villani explore depuis des années les liens profonds entre mathématiques, sciences et intelligence artificielle.
Pour le Breizh Data Day 2026, il ouvrira l’événement avec une keynote consacrée aux relations entre IA et mathématiques : ce qu’elles s’apportent mutuellement, les capacités réelles de l’IA face aux fantasmes, les limites techniques et énergétiques de l’IA générative, ainsi que les enjeux environnementaux et de souveraineté technologique.
Une intervention pour prendre de la hauteur, clarifier le débat et replacer l’IA sur des bases scientifiques solides.
Cette conférence montre comment la data industrielle, collectée au plus près du terrain, peut être fiabilisée, structurée et visualisée afin de piloter la performance industrielle, soutenir les démarches Industrie 4.0 et améliorer la prise de décision en temps réel.
Dans nos hôpitaux, les dossiers patients informatisés accumulent chaque jour davantage de données : comptes rendus, résultats d'examens, observations... Cette richesse informationnelle devient paradoxalement un frein : perte de temps, charge cognitive accrue, risque d'erreur. Comment l'IA générative peut-elle transformer cette contrainte en opportunité ?
Dans notre équipe chez Nokia, nous travaillons sur le remplacement de l’algorithme d’estimation de canal de transmission (entre un téléphone et l’antenne) par un réseau de neurones. Le but est de préparer l’arrivée de la 6G et des nouvelles contraintes de latence et de complexité qui lui sont inhérentes.
Pour entraîner puis tester notre réseau de neurones, nous avons besoin de données. Nous avons donc dû réfléchir aux questions suivantes :
Dans ce talk, je présenterai comment nous générons les données pour l’entraînement du modèle ainsi que notre approche pour évaluer la performance du modèle en inférence.
L’intelligence artificielle bouleverse déjà la pratique du droit : automatisation de la recherche et de la rédaction, analyse prédictive des contentieux, gestion intelligente des contrats, outils d’aide à la décision… mais aussi nouvelles zones de risques et de responsabilité. À travers une lecture concrète et opérationnelle, cette conférence décryptera comment l’IA transforme le quotidien des avocats, juristes d’entreprise et directions juridiques, redéfinit la valeur ajoutée humaine et impose de nouveaux réflexes en matière de conformité, de protection des données et de propriété intellectuelle. Entre opportunités stratégiques et vigilance juridique, un éclairage essentiel pour comprendre comment intégrer l’IA sans subir sa révolution.
La conférence présentera le concept d’exposome, les méthodes utilisées en épidémiologie pour étudier les effets sur la santé de l’exposition à des polluants environnementaux, le type de données de santé et d’environnement mobilisées, les challenges liés à l’accès aux données et à leur intégration. Elle s’appuiera sur des exemples de travaux menés par l’équipe Elixir de l’Irset.
Nous chercherons à analyser en quoi la donnée est un élément clé pour comprendre la météo et
ses mécanismes, améliorer les systèmes d'alerte et affiner les prévisions. Nous verrons également
pourquoi le développement d'un réseau d'observation toujours plus précis constitue un enjeu
majeur, non seulement pour les météorologues, mais aussi pour l'ensemble des activités
météosensibles et pour les personnes curieuses de l'évolution du climat.
Nous nous attacherons aussi à expliquer comment une prévision est construite à partir de
l'ensemble de ces données: comment, à partir de mécanismes complexes, on parvient à produire
une information à la fois vulgarisée, compréhensible et adaptée à chacun. Enfin, nous aborderons
les limites liées à la multiplication des données, qui peut parfois nous éloigner de la nature et de
notre observation directe du ciel.
Derrière le mot “open-source” se cachent des réalités techniques, économiques et politiques souvent méconnues. Cet échange propose de décrypter le fonctionnement concret des logiciels open-source : qui contribue réellement, selon quels modèles économiques, et avec quels équilibres entre bénévolat, entreprises et communautés ? Elle mettra également en perspective les enjeux de souveraineté numérique à l’heure des grandes plateformes et de l’IA générative : dépendance technologique, rôle de l’État, politiques publiques et stratégie européenne. Enfin, un éclairage sera porté sur les questions de coût, de compétences et de reconnaissance des professionnels qui structurent — et parfois fragilisent — l’écosystème open-source.
In AI we don’t trust, we test !
Les projets d’intelligence artificielle échouent souvent, non pas à cause de la technologie, mais en raison de choix méthodologiques, organisationnels ou humains.
À travers un retour d’expérience concret sur Le Cadran des Territoires, cette conférence propose de décrypter les principaux pièges des projets IA et de partager les leviers clés pour concevoir des solutions réellement utiles, robustes et adoptées par leurs utilisateurs.
Une intervention pragmatique, ancrée dans le réel, à destination des décideurs et porteurs de projets IA.
Et si 5 000 € pouvaient générer 120 000 € de gains en un an ?
Chez Groupama Loire Bretagne, c’est ce qu’a permis un scoring prédictif construit en interne à partir d’un simple constat terrain : les gestionnaires savaient déjà intuitivement qui risquait d’aller au contentieux.
En transformant cette intuition en modèle opérationnel, l’équipe a :
Une démonstration concrète de comment la donnée, quand elle est simple, utile et co‑construite, permet de réduire les impayés, préserver la relation client et redonner du temps là où l’humain fait réellement la différence.
Chaque jour, nous consommons de l’eau sans y prêter attention. Pourtant, derrière ces gestes ordinaires se cachent des habitudes bien distinctes. À partir de données réelles de consommation, notre conférence montre comment l’intelligence artificielle, grâce à des méthodes de clustering, permet d’identifier automatiquement différents profils d’usage, sans modèle prédéfini.
De la préparation et du nettoyage des données à l’analyse des résultats, nous expliquons de manière accessible comment une base brute devient une source d’informations concrets. Notre approche innovante qui est le clustering ne se limite pas à produire des graphiques : elle aide à mieux comprendre les comportements, à anticiper les besoins et à orienter des décisions plus pertinentes.
Une démonstration claire de la façon dont la data et l’IA peuvent éclairer le quotidien et transformer des informations invisibles en leviers d’action durables et stratégiques.
Dans un contexte où les modèles évoluent rapidement, les architectures IA doivent se penser pour durer. Le MLOps (Machine Learning Operations) est une approche essentielle pour intégrer et automatiser les processus de développement et de déploiement des modèles d'intelligence artificielle.
Dans un institut de recherche qui utilise intensivement le Machine Learning, le MLOps permet de garantir la traçabilité des modèles en automatisant les pipelines de données, le suivi des performances et la gestion des versions. Nous vous présenterons les principes du MLOps, les raisons qui ont poussé notre institut à adopter cette approche et les moyens mis en oeuvre pour l’appliquer.














