Découvrez le programme de cette 6ᵉ édition du Breizh Data Day au théâtre de la Passerelle à Saint-Brieuc.
Le programme et les horaires peuvent évoluer.
Déjà présente dans le folklore et la science-fiction, l’intelligence artificielle a débarqué au 20ème siècle dans les sciences et la technologie, et plus récemment dans les vies tous. Bien sûr, aucune magie là-dedans. Mais la société doit comprendre, maitriser cette nouvelle technologie. Alors, où en est-on ? Et où va-t-on ?
Depuis 2022, les systèmes d’intelligence artificielle se démocratisent auprès du grand public. Cette adoption massive n’est que la surface émergée de ces outils numériques déjà omniprésents dans notre vie quotidienne allant des algorithmes de recommandations à la navigation GPS sur smartphone.
Reposant sur une infrastructure matérielle qui n’a rien d’un nuage, la multiplication des usages de l’IA génère une forte croissance des impacts environnementaux du numérique en particulier sur le climat, les ressources minérales et l’utilisation en eau. Ces systèmes d’IA, encore récents, posent également des questions sociales et éthiques fortes.
Cette conférence dressera un panorama des impacts environnementaux de l’IA et proposera des pistes de réflexions pour construire une IA sobre, au service de l’humain et de l’environnement.
Cette étude présente une méthodologie complète d'analyse de verbatims issus d'entretiens qualitatifs, utilisant des techniques avancées de traitement du langage naturel (NLP) et de clustering. Réalisée à la demande d'un grand parti politique français et de chercheurs, elle vise à identifier les tendances et les comportements relatifs aux opinions exprimées par les répondants sur des sujets sociétaux, politiques et économiques. L'objectif est de fournir des insights stratégiques pour éclairer à la fois la recherche académique et l'action politique. L'étude repose sur l'analyse de réponses à 6 questions ouvertes, issues de 113 entretiens qualitatifs. Les données brutes, composées de fichiers texte, ont été traitées en plusieurs étapes : Nettoyage et préparation des donnée, Analyse descriptive, Analyse thématique (LDA - Latent Dirichlet Allocation), Clustering (k-means).
MétéoData est une plateforme de données météorologiques et climatologiques développée par la
société Météo Concept depuis 2011 et proposée à ses clients, particuliers et professionnels. Le
front-end est assez classique, un site web. Le back-end en revanche est unique. Contrairement aux
clouds des fabricants, MétéoData a pour ambition de supporter le maximum d’équipements et de
marques, voire des stations météo virtuelles composées de plusieurs équipements variés. Le
résultat est que nous supportons à la fois des stations de conception très anciennes se comportant
comme des serveurs Minitel tout comme des technologies IoT comme le LoRaWAN et le NB-IoT
encore en déploiement. Nous faisons un tour d’horizon de toutes ces connexions et des défis
inhérents à la gestion des données météo.
Au cours de cette conférence nous traiterons des enjeux majeurs des données spatiales et des systèmes d’information géographique (SIG), tout en nous attachant à la recherche d’un bon compromis entre précision et performance, par l’illustration d’exemples concrets et d’approches techniques visant à optimiser le traitement et la gestion de données géospatiales d’un haut niveau de précision. Pour terminer, nous aborderons brièvement la place croissante de l’Intelligence Artificielle dans le traitement des données géospatiales, visant à améliorer
l’efficacité des processus tout en maintenant un niveau élevé de fiabilité
La conférence "L'IA pour tous" démontre le passage de la théorie à la pratique de l'IA, soulignant son importance dans la reconstruction du réseau finistérien, la transition écologique et la résilience climatique pour Enedis. Une méthodologie d'intrapreneuriat impliquant formation et
projets concrets a été mise en place. Les retours d'expérience montrent l'importance d'impliquer les collaborateurs tout en intégrant l'IA dans une stratégie globale
We care for more than 200 thousand exhibits spanning billions of years and welcome more than five million way
visitors annually.
L’Europe choisit de réguler l’IA pendant que les États-Unis et la Chine avancent à toute vitesse avec des modèles dérégulés. Certains y voient une contrainte qui freine l’innovation, d’autres une opportunité pour créer un cadre de confiance et structurer un marché en pleine explosion. Mais au-delà des débats, la vraie question est : comment transformer cette réglementation en avantage concurrentiel ? Comment anticiper les exigences pour ne pas subir mais en faire un atout stratégique ? Un regard concret sur l’IA Act, avec des stratégies d’évaluation applicables dès aujourd’hui pour éviter les pièges et tirer parti de cette nouvelle donne.
La traduction en langue des signes à partir d'une vidéo implique plusieurs étapes de transformation de l'information, notamment la conversion de la parole en texte, du texte en gloss, des glosses en poses, et des poses en avatar. Chacune de ces étapes repose sur des modèles d'intelligence artificielle distincts, chacun étant entraîné sur une base de données spécifique. La constitution de ces bases de données et l'entraînement de ces différents modèles sont donc des phases essentielles pour le développement d'un tel service. Lors de cette présentation, nous aborderons les modèles utilisés, les types de données, les indicateurs de contrôle et les stratégies d'entraînement envisagées pour le développement d’un tel service. Cette étude s’inscrit dans le cadre du projet Smart Live Prod, soutenu par la Région Bretagne et réalisé en consortium avec VODALYS et l'équipe VAADER de l'INSA Rennes.
Les connaissances et informations numériques partagées sur le Web, initialement constituées par
l’humain sont de plus en plus massivement constituées par des moyens artificiels et il s’avère plus judicieux de parler d’Information Artificielle (IA) que d’Intelligence Artificielle.
Notre bibliothèque numérique mondiale se fait enfouir sous les sables d’un espace promotionnel,
numérique et mondialisé, un contenu de plus en plus spectaculaire et fantasmagorique pour la
publicité de produits et services, influences commerciales ou encore politiques, idéologiques.
Multiplicateurs de connaissances génériques et parfois fantaisistes, altérant la mémoire collective,
des agents discursifs, conçus pour recueillir et restituer nos confidences à l’envi, exécutent un sondage profond de nos activités industrielles, professionnelles et personnelles, implantant des idées et en extrayant de nos esprits sans besoin d’interface neuronale pour cela. Que faire pour s’en sortir indemnes, comment résister à l’occupation numérique de nos territoires et patrimoines cognitifs par l’information artificielle ?
Avec l’essor de l’élevage de précision dans les années 2010 et les difficultés des éleveurs à recruter et garder des salariés, l’automatisme et la collecte de données offrent la possibilité de mieux piloter les exploitations porcines. Les premiers applicatifs qui ont percé concernaient l’alimentation des truies gestantes avec l’émergence des systèmes DAC mais cela s’est rapidement propagé à d’autres stades physiologiques (maternité et engraissement).
Pour optimiser les stratégies alimentaires des animaux, une multitude d’informations peuvent être nécessaires : niveau d’activité et poids journaliers des porcs, mais aussi les conditions d’ambiance (température, humidité…). En production porcine, la multiplicité des capteurs et des fournisseurs de données peut parfois freiner le développement d’outils d’aide à la décision ou de tableaux de bord synthétiques. Un travail est à mener sur l’interopérabilité des données pour faciliter cela.
Détecter des signes de reprise de conscience à l’abattoir, des anomalies de comportement dans une case de jeunes bovins, un échauffement de pied probablement lié à une lésion, voici quelques sujets pour lesquels les technologies d’imagerie et d’IA peuvent apporter une solution.
J’évoquerai les étapes de mise en œuvre de tels projets,
Les chatbots IA ne se limitent plus à répondre aux questions. Grâce à une IA de type agent orchestrateur, une UX optimisée et une logique multi-agents, ils deviennent des assistants intelligents capables d’anticiper, d’agir et d’interagir avec des outils tiers. Cette conférence explore comment concevoir un chatbot souverain, évolutif et efficace, combinant IA générative et support humain, et illustre ces avancées avec un cas concret : le chatbot de s’engager.fr.
Retour d’expérience et mise en place de la classification automatique de données textuelles vétérinaires issues de logiciels de facturation. Utilisation de python pour le nettoyage et la standardisation des données en input, réalisation d’un référentiel de médicaments et d’actes. Mise en place d’un réseau de neurones tensorflow à trois couches, entrainement du modèle et injection des données reconnues dans le backoffice d’un site de Dashboard vétérinaire.
Vous avez des enjeux "sustainability"* ? Vous cherchez un outil adapté clé en main ? Alors, retrouvons-nous pour un workshop exclusif ! Rejoignez-nous pour un avenir durable avec Microsoft Fabric et Power BI en action. Une conférence immersive pour découvrir comment Microsoft Fabric peut catalyser les initiatives RSE dans votre entreprise, vous permettant de transformer des défis ESG* en opportunités innovantes et durables.