Chaque semaine, De Quoi Je Me Mail présenté par François Sorel ouvre le débat sur l'actu high-tech ! En compagnie de journalistes, mais aussi de personnalités spécialistes du numérique, nous analysons, décortiquons les grandes tendances du moment.
…
continue reading
Player FM - Internet Radio Done Right
27 subscribers
Checked 6d ago
เพิ่มแล้วเมื่อ fiveปีที่ผ่านมา
เนื้อหาจัดทำโดย Philippe Nieuwbourg เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Philippe Nieuwbourg หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Player FM - แอป Podcast
ออฟไลน์ด้วยแอป Player FM !
ออฟไลน์ด้วยแอป Player FM !
Decideo - Data Science, Big Data, Intelligence Augmentée
ทำเครื่องหมายทั้งหมดว่า (ยังไม่ได้)เล่น…
Manage series 2649675
เนื้อหาจัดทำโดย Philippe Nieuwbourg เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Philippe Nieuwbourg หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Decideo est la communauté d’information et d’échange autour des outils et meilleures pratiques d’analyse de données (Machine Learning, Business Intelligence, Big Data, Science des Données, Entrepôts de données…). Véritable réseau social des professionnels de la donnée, Decideo est disponible en français www.decideo.fr et en espagnol www.decideo.com. Opinions d’experts, actualités, agenda, offres d’emploi, sont disponibles en ligne et sur les applications mobiles gratuites. Decideo is the leading user community of Business Intelligence, Data Science, Big Data and Analytics professionals. Decideo is a real social network of data driven economy, available in French www.decideo.fr, and Spanish www.decideo.com. User stories, best practices, news, software reviews, agenda, job board… are available online, and through podcast and mobile applications.
…
continue reading
81 ตอน
ทำเครื่องหมายทั้งหมดว่า (ยังไม่ได้)เล่น…
Manage series 2649675
เนื้อหาจัดทำโดย Philippe Nieuwbourg เนื้อหาพอดแคสต์ทั้งหมด รวมถึงตอน กราฟิก และคำอธิบายพอดแคสต์ได้รับการอัปโหลดและจัดหาให้โดยตรงจาก Philippe Nieuwbourg หรือพันธมิตรแพลตฟอร์มพอดแคสต์ของพวกเขา หากคุณเชื่อว่ามีบุคคลอื่นใช้งานที่มีลิขสิทธิ์ของคุณโดยไม่ได้รับอนุญาต คุณสามารถปฏิบัติตามขั้นตอนที่แสดงไว้ที่นี่ https://th.player.fm/legal
Decideo est la communauté d’information et d’échange autour des outils et meilleures pratiques d’analyse de données (Machine Learning, Business Intelligence, Big Data, Science des Données, Entrepôts de données…). Véritable réseau social des professionnels de la donnée, Decideo est disponible en français www.decideo.fr et en espagnol www.decideo.com. Opinions d’experts, actualités, agenda, offres d’emploi, sont disponibles en ligne et sur les applications mobiles gratuites. Decideo is the leading user community of Business Intelligence, Data Science, Big Data and Analytics professionals. Decideo is a real social network of data driven economy, available in French www.decideo.fr, and Spanish www.decideo.com. User stories, best practices, news, software reviews, agenda, job board… are available online, and through podcast and mobile applications.
…
continue reading
81 ตอน
ทุกตอน
×D
Decideo - Data Science, Big Data, Intelligence Augmentée

Un « nouveau » paradigme apparait, le SaaS ! Non, pas celui que vous croyez ! Vous vous dites, ça y est, on l’a perdu ! Il est resté en 1999 à la création de Salesforce ! Non, car si le SaaS est bien vivant depuis 25 ans, le nouveau SaaS pointerait le bout de son nez selon les oracles du marketing. Nous serions en train de passer du Software as a Service au Service as a Software. Que c’est beau le monde du marketing ! Allez, je vous explique. Le principe du Software as a Service a combiné depuis plus de deux décennies l’évolution technologique du cloud computing, et la migration du modèle d’achat de licences logicielles vers celui d’abonnement. Les deux éléments sont indépendants, mais en réalité ces deux évolutions ont été concomitantes. Au lieu d’acheter un logiciel, vous souscrivez à un abonnement, qui comprend le droit d’accès au logiciel, l’infrastructure technique, et les services associés. Un forfait en quelques sortes, mais payé chaque mois. À court terme, le coût en est bien plus intéressant et plus flexible, à long terme un peu moins, cependant dans un marché en évolution perpétuelle, tout le monde est gagnant. Mais voilà, l’intelligence artificielle (je ne sais pas trop ce qu’elle vient faire là), et 20 ans de SaaS ont épuisé les ressorts marketing et commerciaux. Il fallait réinventer ! Et l’on serait donc en train de remplacer le SaaS par le SaaS ! Le Service as a Software serait la combinaison d’une plate-forme technologique, et de services assurés par des humains… ou des IAs. Un bon exemple est le logiciel QuickBooks très populaire en Amérique du Nord, et qui permet à chacun de s’acquitter de ses travaux comptables et de ses déclarations fiscales. Ces dernières ne sont pas réalisées par le client, mais par un comptable, qui utilise le logiciel, complété de ses compétences. Et dans le cas de QuickBooks, le comptable pourrait être une IA. Cela fait dire à certains analystes que le développement des agents intelligents conduit cette transformation du marché. Le client ne s’abonne plus à un logiciel qu’il utilise, mais à un service que lui rend une IA, avec un peu d’humain, parfois. Si l’on reprend l’exemple de Salesforce, un commercial humain entre les données d’un nouveau client, puis les agents dans Salesforce créent automatiquement le flux d’actions de proposition, de relance, de vente. Les nouveaux SaaS remplaceraient donc certains humains chez leurs clients. Tout cela n’est pas totalement nouveau. D’abord, désolé de reparler du passé, mais cela existe depuis la nuit des temps, cela s’appelle de l’externalisation. Lorsque j’envoyais mes documents comptables à mon expert-comptable et qu’il les saisissait dans son logiciel pour ensuite réaliser mes déclarations fiscales, c’était donc déjà du Service as a Software. N’allons pas réinventer des mots qui n’apportent aucune nouveauté, juste pour être « moderne ». Tiens, clin d’œil, ils auraient pu faire comme la Modern Data Stack, et l’appeler Modern SaaS ! Plus sérieusement, la nouvelle donne vient de l’automatisation des processus. Là encore rien de nouveau, à part si cette automatisation est réalisée par des agents intelligents qui prendraient eux-mêmes, en fonction des circonstances, les bonnes décisions. Attention, pas un système expert qui se contente d’exécuter ce que l’expert a programmé – ça on le fait depuis les années 70 -, mais un véritable agent intelligent qui prendrait seul des décisions en fonction d’un entrainement à partir de données historiques. Selon Foundation Capital, cela représenterait un marché de presque 5000 milliards de dollars. Tout dépend bien sûr de ce que l’on met dedans. En tout cas, des dizaines d’entreprises sont déjà identifiées comme fournisseurs de Service as a Software. Si vous êtes un prestataire, qui réalise des travaux pour le compte de ses clients, de manière externalisée ; ne dites plus que vous faites de l’outsourcing, mais du Service as a Software, votre valorisation explosera peut-être ! Et puis, dites-moi ce que vous pensez de tout cela en commentaire.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Dans cet épisode, nous recevons Jean-Georges Perrin. Ce nom ne peut vous être inconnu si vous vous intéressé au "shift-left" qui émerge dans le monde des données. Les utilisateurs prennent peu à peu le contrôle de leurs données, et cela a été théorisé en 2020 dans un livre développant le concept de Data Mesh. Au Data Mesh, il manquait une dimension, celle du "comment". Jean-Georges Perrin a été un des premiers à mettre en application ce concept, chez Paypal. Et parmi les premiers, avec Andrew Jones, à s'intéresser aux supports du Data Mesh, les Data Contracts. Au point qu'il a lancé une initiative de standardisation open source des Data Contracts, ODCS (Open Data Contract Standard). Le projet Bitol, hébergé au sein de la fondation Linux, vise à permettre aux entreprises d'échanger, en interne ou en externe, des Data Products sur la base de standards open source. Très intéressant pour les entreprises... un peu moins pour les éditeurs de progiciels, comme nous en débattons dans le podcast. Un podcast plus long que d'habitude, 40' environ, mais qui vaut la peine d'être écouté jusqu'au bout ! Ecoutez-le en plusieurs fois si nécessaire.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Dans cet épisode, nous recevons David Bougearel, fondateur de Cartographit, un nouvel outil de cartographie du système d'information, qui s'appuie sur les normes de cartographie de l'ANSSI. Les différentes couches cartographiées incluent donc les couches des données, des processus et des applications. Cela fait-il de Cartographit un outil potentiel de gouvernance des données ? Nous abordons ce sujet et différentes questions connexes. - La cartographie du Système d'Information (SI) offre une vue d'ensemble, un inventaire global du SI, incluant les données (objets d'information). Cartographit permet non seulement de réaliser cet inventaire des données, mais aussi de les classifier selon leur niveau de sensibilité, de déterminer si elles sont des PII (données personnelles) et de connaître leur DICT. Cela offre ainsi une vision précise et détaillée des données. - Cependant, connaître les données est une première étape. Comprendre comment elles sont utilisées et où elles se trouvent ajoute une dimension essentielle. Cartographit permet de relier ces données aux processus métiers (vue fonctionnelle), aux actions techniques (quelles bases de données, quels flux ou quelles applications utilisent ces données) et de localiser physiquement ces données (par exemple : Bâtiment 1, Salle 44, Baie 1.1). - Grâce à une interface utilisateur (UI/UX) optimisée et à une navigation cartographique fluide, Cartographit permet de parcourir l'ensemble de son SI et d'explorer le fonctionnement de son entreprise, tant d’un point de vue technique que fonctionnel.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Vous en avez assez d’entendre parler de LLM, de prompt, de text token, ou de adversarial machine learning ? Ça tombe bien, le 6 septembre dernier, le Journal Officiel de la République Française a publié, pour la rentrée des classes, la liste relative au vocabulaire de l’intelligence artificielle. La commission d’enrichissement de la langue française a retenu quatorze termes ; elle les a traduits, et définit. Ainsi, vous pourrez parler de Grands Modèles de Langage, les GML ; d’instructions génératives pour les prompts, de jeton textuel pour les text token, et d’apprentissage antagoniste pour l’adversarial machine learning. Plus aucune excuse pour truffer vos textes et vos vidéos de ces anglicismes qui ne rendent pas hommage à notre langue. Ça fait plus chic ? C’est plus court ? Tout le monde le dit ? Toutes ces excuses sont valables, mais avec un petit effort, vous verrez que vos textes en ressortiront de meilleure facture. Et ne devenez pas ces directeurs marketing que je rencontre régulièrement et qui commencent leur présentation en s’excusant des mots anglais qu’ils utiliseront… sous prétexte que, vous savez, je vis aux States depuis plusieurs années, et je ne sais plus comment on dit en français. Cinq pages du JO du 6 septembre à imprimer donc, et à garder bien visible sur votre bureau. Ah tiens d’ailleurs, il y en a un qui manque ! Je n’ai pas trouvé la traduction de RAG, Retrieval Augmented Generation. Il va falloir continuer l’enrichissement du dictionnaire. J’ai trouvé sur Internet une traduction sous forme de Génération Augmentée de Récupération. Pourquoi pas. Qu’en pensez-vous ? A tiens, amis québécois qui nous écoutez, vous qui êtes si prompts à défendre la langue française, montrez l’exemple ! Le problème c’est que nous ne sommes pas toujours d’accord sur les traductions… Ainsi l’Office Québécois de la Langue Française recommande d’utiliser le terme de « requête » pour désigner les prompts. Alors requête ou instruction générative ? Qu’en pensez-vous ?…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Le MIT a recensé 777 risques potentiels liés à l’IA dans une base de données partagée gratuitement Cet été, le MIT nous a fait un cadeau ! Le prestigieux organisme de recherche américain a publié un référentiel complet des risques liés à l’intelligence artificielle. L’objectif : vous aider à cartographier l’ensemble des risques qui pèsent sur votre entreprise afin de les mesurer, les quantifier et les mitiger par la suite. Si vous suivez mes contenus sur le thème de la gouvernance des données et de l’intelligence artificielle, vous avez déjà été sensibilisé au fait que la mise en place d’un cadre de gouvernance passe par l’identification et la cartographie des risques. Comment en effet atténuer quelque chose que l’on n’a pas référencé et mesuré ? Première tâche donc, l’identification et la cartographie des risques en matière d’intelligence artificielle. Risques liés aux données, aux modèles, aux usages, les risques sont nombreux. Et l’IA Act européen prévoit d’ailleurs l’obligation de les identifier et de les suivre, afin de classifier les modèles d’IA en fonction des risques encourus. Mais partir d’une feuille blanche et se gratter la tête en faisant le tour des bureaux n’est pas la méthode la plus efficace. Or il n’existait pas jusqu’à présent un référentiel unique, mais plusieurs référentiels, tous incomplets, et orientés. Ces derniers mois, les équipes du MIT ont réalisé un travail de compilation et d’organisation de l’ensemble des référentiels qu’ils ont pu identifier ; regroupant l’ensemble des risques dans une taxonomie commune. The AI Risk Repository est donc un travail de synthèse des risques en provenance de 43 taxonomies différentes. Au total, 777 risques ont été identifiés, regroupés et ordonnés dans la taxonomie du MIT. Ce travail de synthèse est fourni sous forme d’un fichier Excel ou Google Sheets. Avec 777 risques décrits, c’est évidemment beaucoup trop pour la très grande majorité des entreprises, et un important travail de compréhension et de sélection reste à faire. Par ailleurs chaque entreprise devra évaluer le degré de survenance de ce risque dans sa propre organisation ; ainsi que les impacts de cette survenance sur son métier. Personne ne peut faire ce travail à votre place. Mais bien sûr, remercions le MIT pour cette synthèse qui permet de partir de quelque chose, d’envisager à peu près tous les cas possibles, et ainsi de progresser dans cette cartographie des risques liés à l’IA. Le framework à déployer est donc le suivant : - Commencez par prendre connaissance de la base de données des risques du MIT ; - Sensibilisez la direction générale à l’importance, et parfois à l’obligation, de connaitre le niveau d’exposition de l’entreprise ; - Programmez des ateliers avec les différentes personnes concernées, métier et informatique, afin de sélectionner dans la base du MIT les risques applicables à l’entreprise ; - N’hésitez pas à vous faire accompagner dans cette phase afin de démarrer correctement ; un consultant spécialisé peut être un booster et un garde-fou ; - Pour chacun de ces risques, évaluez leur probabilité de survenance, et les impacts, financiers et autres, de cette survenance éventuelle ; - Reportez tout cela dans un outil spécialisé de gestion de risques ou à défaut dans une feuille Excel ; - Mettez en place les stratégies de modération de ces risques ; - Ne pas oublier de répéter ce processus, lorsque les risques changent ou au minimum une fois par an, afin de maintenir à jour cette cartographie. Alors je vous entends déjà critiquer ! Jamais je n’aurai le temps de faire cela, la DG ne nous donnera pas de budget, encore un truc qui va rester sur les étagères, bla bla bla… Vous avez raison de vous inquiéter ! Mais en même temps soyons direct, ce n’est pas un choix. Bien sûr, une PME peut choisir de prendre des risques, sans les mesurer, et en assumer par la suite les conséquences. Mais assurez-vous que cette décision de ne pas cartographier les risques liés à l’IA soit bien prise au plus haut niveau. Et un conseil, protégez vos arrières, et conservez bien la trace de cette décision. Et si votre DG est plus raisonnable, et comprend l’importance de connaitre et mesurer ces risques, allez-y progressivement. Posez les premiers jalons, et commencez les ateliers. Tiens, par exemple, commencez par les nouveaux projets ! Un nouveau POC d’IA ? Dès la phase de POC, rapprochez-vous des équipes, abordez le sujet, et cartographiez les risques à la volée. En incluant la gouvernance de l’IA dans la phase de design des projets, le fameux « Governance by design », vous rendrez le sujet beaucoup plus fluide. C’est ce que j’appelle le DevSecGovOps, penser à la gouvernance dès la phase de conception, et en faire un élément essentiel de la mise en production.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Vous avez 23 ans, vous mesurez 1 mètre 77, et vous pesez 72 kilos ? Vous avez, contrairement à moi, le profil idéal pour remporter le 100 mètres, épreuve reine de l’athlétisme aux jeux olympiques. Si en revanche vous avez plus de 27 ans… désolé, vous êtes déjà disqualifié par l’analyse statistique. Cependant, si vous êtes un peu en surpoids, jusqu’à 108 kilos, vous pouvez tenter le lancer de poids. Les grands triompheront au lancer de disque, quant aux plus petits qu’un mètre soixante… ils n’ont que peu de chance d’obtenir une médaille en athlétisme. Non, mesdames, je ne vous oublie pas. Et les statistiques semblent se rejoindre. Si vous avez 22 ans, que vous mesurez 1 mètre 66, et que vous pesez 57 kilos, la médaille du 100 mètres est à votre portée, mathématiquement. Là encore, quelques kilos supplémentaires vous permettront de tenter le lancer de poids. Les plus grandes lanceront le disque tandis que les plus petites triompheront au 10 000 mètres et au marathon. Commandité par JeffBet, un site de paris en ligne, l’étude porte sur les données de 222 500 athlètes olympiques, collectées depuis 120 ans. Pour JeffBet, remporter une épreuve dépend certes du courage, de la volonté, de l’entrainement, mais également de caractéristiques purement physiques. Et c’est l’idée de la société de paris en ligne, qui tente de convaincre que l’on peut améliorer ses probabilités de miser sur le gagnant, sans le connaitre, mais en étudiant uniquement ses données. Le livre Money Ball de Michael Lewis, publié en 2003, nous contait déjà l’histoire controversé d’un sélectionneur de baseball qui utilisait les données pour compenser le manque de moyens de son équipe, et identifier statistiquement les meilleurs joueurs. Alors que vous soyez pro-statistiques, persuadés que le monde est régi par la mathématique et les probabilités ; ou que vous soyez convaincu que les statistiques ne sont en aucun cas déterministes, oubliez un peu les data pendant quelques semaines, passez de bonnes vacances, et retrouvez de nouvelles émissions de votre podcast Decideo dès la rentrée de septembre pour une nouvelle saison, la cinquième !…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Gouvernance des données : quelques prérequis organisationnels Ayant l’opportunité d’accompagner de nombreuses entreprises dans la mise en place d’une gouvernance des données orientée métier, je voudrais partager avec vous aujourd’hui quelques prérequis organisationnels. Eloignés des habituels conseils sur les outils à déployer, je constate que les premiers pas à réaliser, et pas les plus faciles, sont liés aux personnes et à l’organisation. Trois questions ! Qui ? Cela peut paraitre évident, mais dans la réalité, la nomination claire et affirmée de la personne chargée de coordonner la gouvernance des données dans l’entreprise n’est pas toujours une priorité. Or, sans bénéficier de l’onction de la direction générale sur le sujet, la personne en charge rencontra sur sa route toutes les embuches posées ça et là par les personnes qui ne voient pas dans leur intérêt qu’une gouvernance vienne fixer des bonnes pratiques là où ils préfèreraient que personne ne vienne mettre son nez. Donc, la première des choses à faire est de désigner une personne, de lui donner un titre de poste qui reflète cette fonction de mise en place des actions liées à la gouvernance, et de communiquer en interne sur le sujet. Récemment, un client m’expliquait que sa direction générale ne souhaitait pas envoyer un email pour indiquer à tous les employés que cette personne était maintenant en charge de mettre en place une gouvernance des données. Je lui souhaite bonne chance dans sa mission quand même la direction générale ne lui donne pas ses lettres de crédit ! Où ? La position de cette personne dans l’organisation est beaucoup plus importante que son titre. Je peux être nommé Data Governance Manager, mais si je suis au troisième sous-sol de l’organigramme dans une sous-direction, dépendant de la direction informatique… je n’aurai jamais l’oreille du comité de direction pour arbitrer les litiges qui apparaitront ; ni la crédibilité pour imposer aux métiers un code de conduite et des bonnes pratiques qui modifieront leurs habitudes. Les Américains ont choisi de placer la gouvernance des données, et de l’intelligence artificielle, directement au sein du comité de direction, en créant le poste de CIGO — Chief Information Governance Officer. Pas toujours facile dans les pays francophones de réunir le budget, la personne compétente, et la volonté de la direction générale pour créer ce niveau de poste. Du fait de mon expérience, je déconseille toute organisation dans laquelle le responsable de la gouvernance des données serait à plus d’un échelon du comité de direction. Je déconseille également — à quelques rares exceptions près — que la gouvernance des données orientée métier soit rattachée à l’informatique. Si elle ne peut pas être autonome, elle devrait être rattachée à l’audit, à une direction data ou digital. Le plus important est que le supérieur hiérarchique du responsable de la gouvernance puisse directement porter les messages au comité de direction, et obtenir sa validation ou son arbitrage. Là encore, il faut organiser et communiquer clairement en interne sur l’organisation, afin qu’il n’y ait aucune ambiguïté. Comment ? Qu’il s’agisse de la charte de gouvernance des données, du code de conduite de l’IA, de la classification des données sensibles, du catalogue des data products, de l’ontologie d’entreprise… la gouvernance des données passe par la formalisation d’un certain nombre de livrables. Outre ses qualités relationnelles, le responsable de la gouvernance doit faire preuve d’un excellent formalisme. Rédiger, expliquer, illustrer, présenter… est son quotidien. Outre l’indispensable traitement de texte qu’il utilisera quotidiennement, il a besoin d’un outil de diffusion du contenu qu’il produit. Tout sauf des classeurs qui resteront dans une étagère ! Un simple Wiki fera l’affaire, mais il lui permettra de diffuser ses livrables, de recueillir des commentaires, des suggestions, d’échanger avec sa communauté en interne. C’est le premier outil à mettre en œuvre, avant de passer à tout logiciel complexe. Ce portail accueillera son message de nomination, la composition du comité de gouvernance, puis viendront la charte de gouvernance des données, et l’ontologie ou le glossaire métier, en fonction du niveau de profondeur souhaité. Bon courage pour ces premières étapes. Comme elles touchent l’humain et l’organisation, elles sont à la fois indispensables et parfois les plus compliquées à accomplir.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Avec Philippe Charpentier, le CTO de NetApp France, nous abordons le "contenant" des données. Contenant et contenu sont mutuellement indispensables, et ils répondent tous deux à des contraintes différentes : - Les data sont enfin reconnues comme des actifs informationnelles de l'entreprise, il faut donc les protéger. Quels sont les enjeux actuels liés à la sécurité et à la confidentialité de ces données collectées par toutes les entreprises ? - Peut-on et doit-on tout conserver ? L'IA semble nous dire que oui, les lois sont un peu moins d'accord. Comment arbitrer ? - Un des éléments clef d'une stratégie data est aujourd'hui la gouvernance, comment s'assurer du cycle de vie et d'utilisation des données. Quid de la traçabilité de ces actifs tant immatériels. - En 2024, sur quoi les entreprises doivent-elles porter leur attention ? Quels conseils leur donner en matière de data ?…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

IBM se lance à son tour dans le data mesh et les data products. L’entreprise l’a annoncé cette semaine, à l’occasion d’un séminaire de présentation de son offre appelée IBM Data Product Hub. Cette tendance, le « shift left », consiste à transférer peu à peu la responsabilité des data aux utilisateurs métiers, et l’autonomie qui va avec. Que vous appliquiez à la lettre les principes du data mesh ou si vous créez simplement des data products pour remplacer vos entrepôts de données centralisés, vous allez passer par la recherche et l’installation d’une plateforme de jeux de données. Amazon, SAP, Microsoft mais également des éditeurs spécialisés comme Zeena, Meta-Analysis ou Orkestra Data se sont lancés dans la course. Nous en avons déjà parlé ici. Signe que le sujet du data mesh devient incontournable, IBM se lance à son tour. Difficile de remettre en question ses habitudes de centralisation ! IBM annonce Data Product Hub, une plateforme, centralisée, pour stocker les data products. Les sources de données sont des entrepôts de données ou des lakehouses – 57 connecteurs sont annoncés. Les jeux de données peuvent ensuite être analysés avec Tableau, Watsonx de IBM ou encore en Python via la librairie Pandas. Le plan de développement prévoit l’incorporation d’IA générative dans les prochaines versions, fin 2024 et début 2025. Les consommateurs de données peuvent envoyer des requêtes, demandant à accéder aux données qui les intéressent. Les producteurs de données peuvent personnaliser les formats de génération des jeux de données, pour s’adapter aux besoins de leurs consommateurs. La gouvernance de l’ensemble est bien sur facilitée. Si vous utilisez le catalogue de données IBM Knowledge Catalog, le Data Product Hub pourra s’y connecter. Une intégration avec Informatica est prévue fin 2024. Les jeux de données peuvent être générés et stockés, ou pourront être virtualisés à partir de fin 2024. La génération et la mise à jour des data products sera automatisée dans la version de début 2025. Point très important, des data contracts et des niveaux de service peuvent être implémentés afin de gouverner les échanges de données. Un tableau de bord de suivi est même prévu. Ces contrats « lisibles par la machine » permettront dans la version de début 2025, de mettre en place un suivi automatisé de la gouvernance. Le Data Product Hub de IBM sera disponible en version on-premise, à l’achat ou à la location, ainsi qu’en version SaaS hébergée dans le cloud IBM, ou dans d’autres grands clouds. Une version d’essai de 60 jours sera proposée par l’éditeur. La version perpétuelle sera proposée à partir de 250 000 $, ou en location à partir de 100 000 $ par an. Le Data Product Hub est un nouveau composant ajouté à la Data Fabric de IBM. Préparant le futur, et la monétisation des données, IBM inclut une fonction de place de marché – on appelle également cela un Data Space. Mais dès maintenant, les consommateurs de données peuvent l’utiliser pour rechercher un jeu de données répondant à leurs besoins. Avec toutes les difficultés que l’on constate lors des tentatives de création de catalogues de données métier, on peut espérer que les catalogues de jeux de données seront adoptés, par les producteurs et les consommateurs, et seront alors correctement catalogués !…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

5 ans de prison, si vous tentez de prévoir la décision d’un juge … mais comme toujours, les lignes jaunes sont contournables, pour peu que l’on prenne le temps de comprendre la loi. Je vous parle ici d’une disposition liée à l’utilisation de l’intelligence artificielle dans le cadre de procédures judiciaires, tentant de prédire quel sera le comportement de tel ou tel juge dans une affaire, et pour les parties prenantes d’adapter leur stratégie. Aux Etats-Unis, vous l’avez certainement vu dans de nombreuses séries criminelles, la technologie est utilisée pour analyser le profil de jurés, et tenter de prévoir leur positionnement, mais également pour analyser les décisions prises par chaque juge. Rien de bien nouveau, car les prétoires ont toujours été le berceau de rumeurs et de bruits de couloir : untel donne plutôt raison aux femmes, untel n’aime pas les hispaniques, untel est contre l’autodéfense, etc. Depuis toujours, les avocats ont imaginé améliorer leur stratégie, persuadés que les juges sont biaisés… tout simplement parce qu’ils sont humains. Un peu comme on commentait au lycée les professeurs qui nous étaient affectés en début d’année, les avocats commentent les juges qui leur sont affectés en début de procès. Mais au fait, les juges qui portent des lunettes sont-ils plus sévères que ceux qui ont une bonne vue ? Et les juges aux cheveux blancs sont-ils plus tolérants avec les jeunes majeurs ? Quand aux juges qui conduisent une peugeot, sont-ils plus sévères que ceux qui conduisent une Audi, dans les cas de violence conjugale ? Questions absurdes ? Peut-être. Mais si l’apprentissage machine nous apprenait le contraire. Que l’âge, la vue, la couleur des cheveux, la voiture qu’ils conduisent présentaient une corrélation avec leurs décisions. Si cela était mathématiquement prouvé, qu’est-ce que cela prouverait justement ? Que la justice est humaine, et donc biaisée. Dans ce cas, pourquoi ne pas l’analyser, et en utiliser les résultats ? Peut-être mais avec des limites très claires. Une loi publiée en 2019 précise en effet que les données nominatives des juges ne peuvent pas être utilisées. Il est donc interdit de prévoir la décision d’un juge en particulier dans une affaire. Mais elle ne peut empêcher la prédiction basée sur des caractéristiques, tant que celles-ci ne permettent pas de remonter à la personne, au juge. Alors, les juges qui se savent analysés gardent-ils le même comportement ? Où cela va-t-il les inciter modifier leurs décisions ? Les études menées depuis 2019 semblent montrer que globalement ces caractéristiques interviennent très peu dans les décisions. En revanche, les tribunaux, par le profil des affaires qu’ils jugent et leur volume, prennent clairement des sanctions différentes. Entre Bobigny et Versailles, les peines appliquées sont clairement différentes dans certains types d’affaires ? En viendra-t-on à préférer une justice artificielle, un algorithme qui appliquerait la loi, rien que la loi, sans aucune humanité ? Un film espagnol, Justicia Artificial, devrait d’ailleurs sortir en septembre prochain sur le sujet.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Plongeons dans les nuances de la gestion de la data pour le reporting financier et ESG, avec une attention particulière sur l'impact récent de l'adoption de la directive CSRD. Cette réglementation, un moment charnière pour le reporting financier et de durabilité intégré, nécessite une assurance par une tierce partie et marque une évolution significative dans la manière dont les entreprises abordent la transparence et la fiabilité de leurs données. Aujourd'hui, alors que les entreprises du monde entier se préparent à publier leurs premiers rapports CSRD obligatoires en 2025, l'impact du CSRD se révèle avoir une étendue bien au-delà de ceux qui sont soumis à la réglementation. Le CSRD a amorcé un virage mondial vers l'intégration assurée des rapports, les chefs d'entreprise reconnaissant la demande du marché pour des données contextuelles, transparentes et crédibles qui répondent aux attentes des parties prenantes. En se concentrant sur les aspects pratiques et techniques, Workiva vise à clarifier comment les entreprises peuvent utiliser la data pour non seulement respecter les normes réglementaires, mais aussi pour piloter des décisions stratégiques qui favorisent un développement durable et éthique.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

1 #4.18 Ethique et responsabilité de l'IA : et si la clef venait des graphes, avec Nicolas Rouyer, Neo4j 19:30
Alors que l’évolution de l’intelligence artificielle (IA) générative se développe à une vitesse exponentielle, bouleversant tous les pans de notre société, les législateurs, en Europe comme outre-Atlantique, doivent construire à marche forcée un cadre propice à un développement éthique et responsable de la technologie. Ainsi, courant mars, le Parlement Européen a approuvé la législation sur l’IA générative qui garantit la sécurité et le respect des droits fondamentaux tout en encourageant l’innovation [1] . Celle-ci précise notamment que l'IA générative doit être aussi transparente que possible, en décrétant que les développeurs doivent démontrer précisément le fonctionnement du modèle et les données sur lesquelles il est entraîné. Par ailleurs, il y a quelques semaines, la CNIL publiait des recommandations quant au cadre juridique et aux bonnes pratiques pour le développement d'un système d'IA vertueux [2] . Dans un tel contexte, et à mesure que l’IA générative et les grands modèles de langage se généralisent, l'intégration de ces technologies dans les opérations des entreprises s'accompagne de deux dilemmes éthiques importants : une utilisation transparente et responsable ainsi que des résultats fiables. Les graphes de connaissances pourraient constituer un moyen d'améliorer la transparence et la confiance exigées par la loi européenne sur l'IA. « L'IA générative progresse aujourd'hui à une vitesse jamais vue. Si l'on ne peut espérer que les décideurs politiques parviennent à suivre le rythme de cette innovation, l'absence d’un cadre et de normes garants d’un développement responsable de l’IA générative pourrait empêcher la société de prendre la pleine mesure du potentiel infini de cette technologie et de la mettre au service de l’intérêt général. Pour que ces systèmes profitent à la société dans son ensemble, inspirent confiance et répondent aux normes réglementaires clés, il est essentiel de prendre en compte l'infrastructure technologique au sens large et, surtout, les systèmes de gestion de données. Les graphes de connaissances se distinguent comme la structuration de données essentielle qui améliore les solutions d'IA générative en apportant plus de précision, de transparence et d'explicabilité. En effet, les graphes de connaissances permettent des interrogations, des déductions et des raisonnements sémantiques basés sur les relations. Ils jouent donc un rôle essentiel en agissant en complément de l'IA générative, en lui permettant de modéliser le raisonnement humain à plus grande échelle. Les graphes donnent un contexte plus profond aux données qui alimentent un modèle d’IA générative, ce qui permet l’explicabilité et la pertinence, pour éviter les hallucinations. De plus, grâce à la gestion fine des rôles et des droits sur les données de graphes, les organisations peuvent gérer au plus près la sécurité et la confidentialité. », analyse Nicolas Rouyer , Consultant Avant-ventes Senior chez Neo4j .…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

La semaine dernière à Paris, c’était la grand-messe de Publicis, Vivatech. N’étant pas fan de ces grands rassemblements où l’on s’autocongratule entre soi, j’ai pris l’avion pour le Sud. Après avoir traversé la méditerranée, puis le désert du Sahara, j’ai atterri à Lomé, au Togo, où se réunissaient les directeurs financiers et de contrôle de gestion de l’Afrique de l’Ouest. Accueillis dans les locaux de la BOAD, les participants ont bien entendu parlé d’intelligence artificielle, de données, et de comment la fonction finance en entreprise allait être impactée par ces évolutions technologiques. Avaient fait le déplacement les présidents français de la DFCG, l’association des directeurs financiers, et de l’AFDCC, celle des crédit managers. Les ponts entre les financiers français et leurs pairs d’Afrique de l’Ouest sont actifs, et devraient l’être encore plus dans les années à venir. Alors bien sûr, on a parlé de magie, de ces outils miraculeux que l’on nous promet, et de la révolution sur l’emploi qu’ils vont provoquer. Mais avec réalisme on a surtout évoqué ce qui manque à beaucoup d’entreprises africaines pour exploiter cette intelligence artificielle : des données. Dans des pays où la part de l’économie informelle est importante, collecter et conserver des données semble parfois vain. J’ai eu un échange passionnant avec le directeur financier d’un groupe de distribution. Certes, il adorerait pouvoir analyser qui achète quoi, quand, avec quoi… mais ce ne sont pas les modèles d’apprentissage qui lui font défaut, ce sont les données. Pas de remontée des lignes de tickets de caisse ; pas de carte de fidélité permettant d’identifier les clients. Il manque le basique. Difficile d’aller parler d’intelligence artificielle générative quand manquent la culture nécessaire à la collecte, à la valorisation et à la gouvernance de ces données. Il serait facile de pointer du doigt le retard technologique de ces pays africains. Mais c’est également la réalité de beaucoup d’entreprises françaises. En ce moment même, je travaille avec un industriel dans le domaine de la papeterie : il envisage prochainement la mise en place, enfin, d’une gestion des données de référence ; un service social tente de mettre en place une gouvernance, et se heurte à l’absence d’architecture d’entreprise et d’ontologie des termes utilisés en interne ; et une grosse PME dans l’agro-alimentaire change enfin d’ERP et envisage son premier reporting dans un outil autre que Excel. Alors que retenir de tout cela ? Il faut bien sur des visionnaires, des rêveurs, des innovateurs et il faut un Vivatech. Mais concrètement beaucoup d’entreprises n’en sont pas là ! Elles en sont même loin. Leur faire croire qu’elles pourront bénéficier en un claquement de doigt de ces technologies magiques, ce n’est pas leur rendre service. Oui, c’est moins drôle, moins « chevere » comme dit ma fille de 17 ans, mais mettre en place une culture de la donnée, des bonnes pratiques de gouvernance, et une architecture adaptée pour collecter, conserver et par la suite analyser cette donnée, est la priorité ! Ne me parlez pas de ChatGPT tant que vous n’avez pas ces fondations. Sinon, c’est comme si vous commandiez une Ferrari, alors que vous n’avez même pas passé le permis.…
Vous avez entendu parler du data mesh ? Non ? C’est normal, le concept est encore jeune, il date de 2019. Mais je suis certain que vous en appliquez déjà certains des principes, sans même le savoir. Dans votre entreprise, comme dans la plupart, la tendance est clairement à la reprise du contrôle des données par les utilisateurs métier. Finalement, ce sont leurs données, ils les produisent, les saisissent, les améliorent, les rendent disponibles. N’est-il pas normal qu’ils soient responsables, et crédités, de leur qualité, de leur disponibilité, de leur conformité. Pourquoi leur retirer leurs données, pour les centraliser, hors de leur contrôle dans un data warehouse, data lake, lakehouse ou que sais-je encore ? Rendre la donnée aux métiers, permettre à chacun de partager ses données avec d’autres, dans une plateforme commune, et encadré par de bonnes pratiques de gouvernance. Voici quelques-uns des mots clefs qu’il faut connaitre, pour comprendre cette tendance. 1. Le Data Product Owner Le “propriétaire” des données est celui qui connait la donnée, il est donc du côté des métiers. A la demande du consommateur de données, il propose un jeu de données (le data product) et s’engage sur sa disponibilité, sa qualité, sa conformité, etc. 2. Le Data Product C’est un jeu de données. Un ensemble de données qui répond aux besoins d’un ou de plusieurs consommateurs de données. Il est défini, créé, puis produit et mis à jour, en fonction des besoins du consommateur et des contraintes du data product owner. Il est encadré par le data contract et mis à disposition sur la data product platform. 3. Le Data Contract Le data contract est la clef de voute de l’ensemble. Il formalise, contractualise, les conditions de fourniture du data product négociées entre le métier producteur et le métier consommateur. Il définit les détails techniques, mais aussi la qualité, la disponibilité, la conformité, du data product. Souvent produit en YAML ou JSON, il est lisible par un Être humain, et par le logiciel. Des modèles standardisés sont en cours de développement. 4. La Data Product Platform Autant la relation entre consommateur et producteur de données est décentralisée ; autant son hébergement et sa gestion informatique, doivent être centralisées ! Elle catalogue, référence, héberge, et met à disposition les data products, en s’assurant du respect des règles du data contract. 5. Et enfin, le Data Product Manager La donnée est un produit ? Elle doit donc être construite comme telle. Et la fonction de Data Product Manager commence à apparaitre. Il comprend les données et leurs usages, aide à la préparation du data contract, et s’assure que le data product répond aux besoins exprimés.…
D
Decideo - Data Science, Big Data, Intelligence Augmentée

Voici quelques-uns des sujets que nous abordons avec Jean-Paul Otte, Responsable des services stratégiques chez Precisely : - Posons nous la question de l'impact des nouveaux usages mobiles (IOT, mobiles) sur les données. Quelles nouvelles données collectons-nous ? Et quelles sont leurs particularités ? - Plus l'IA se développe, plus on a besoin de l'alimenter avec des données de qualité. Comment s'assurer que les données collectées sont exactes, homogènes et contextualisées ? - Quels outils permettent de détecter cette non-qualité de données ? Peut-on la corriger ? Comment ?…
ขอต้อนรับสู่ Player FM!
Player FM กำลังหาเว็บ