Details
Nothing to say, yet
Details
Nothing to say, yet
Comment
Nothing to say, yet
The podcast discusses the recent political decision to transfer energy responsibility to Bercy in France. There has been an increase in renewable energy production, particularly in China, but funding issues in developing countries remain a challenge. The podcast also covers the use of AI and the proposed AI Act in Europe. The Act aims to regulate the use of AI based on different levels of risk and includes penalties for non-compliance. France has a national strategy for AI but some stakeholders are concerned about the potential limitations on AI usage. Bonjour et bienvenue dans ce nouveau podcast Yélé, réalisé par votre cellule Veil. Ce podcast va vous donner les actualités pertinentes de la semaine sur les positionnements historiques et en devenir de Yélé. On vous repasse la revue de l'actualité pour parler entre autres de la décision politique de la semaine concernant le transfert de la responsabilité de l'énergie à Bercy suite au remaniement gouvernemental. On vous propose ensuite un zoom sur l'actualité à la une de la semaine, l'EI Act, le premier cadre réglementaire de l'Union Européenne sur les intelligences artificielles, accompagné de son interview de Benjamin qui nous partagera son expertise pour décrypter l'information. Je vous laisse avec Juliette pour les actualités en bref. L'actu politique, au cours du remaniement gouvernemental de ce début d'année, la responsabilité de l'énergie est transférée à Bercy afin d'aider Bruno Le Maire pour la bonne réalisation du programme nucléaire français. Les défenseurs de l'environnement s'inquiètent. C'est un recul de 15 ans, regrette le WWF dans un communiqué. Christophe Béchut, quant à lui, conserve sa place au ministère de la Transition écologique. Côté RnR, en 2023, quelques 507 gigawatts d'énergie renouvelable ont été mis en service, soit 50% de plus qu'en 2022, selon le rapport Renouvelables 2023 publié par l'AIE. Cette forte croissance est portée principalement par la Chine, plus de 66% d'éolien sur un an. Ces chiffres sont encourageants pour atteindre l'objectif de triplement des RnR prévus dans l'accord de la COP28. En revanche, ils restent insuffisants pour le moment, notamment en raison des problèmes de financement des pays en développement. Le point des carbos. Petrobras, Total Energy et Shell vont tester le captage de CO2 sur un champ pétrolier brésilien. Ce consortium va tester cette nouvelle technologie consistant à séparer le pétrole du CO2 au moment de l'extraction afin de réinjecter le gaz dans un gisement sous-marin. L'objectif est de limiter les émissions de gaz à effet de serre tout en augmentant la productivité du site. Côté hydrogène. Dans l'article de la précédente revue de presse consacrée à l'hydrogène, on soulignait l'investissement massif des pays pétroliers dans la production d'hydrogène propre. Cette tendance semble se confirmer au port du Havre, ouvert aux importations d'hydrogène qui seraient allées prospecter aux Émirats pour un couloir d'hydrogène vert. L'infogaz. Dans l'Union Européenne, les réserves de gaz sont encore remplies malgré de fortes tensions sur l'approvisionnement gazier en Europe. Les taux de remplissage sont en moyenne de 82,4%. Depuis le début de la guerre en Ukraine en février 2022, l'Union Européenne a réduit, mais pas arrêté, ses achats de gaz russes acheminés par Gazoduc. Le Zoom de la semaine. En avril 2021, la Commission Européenne a proposé le premier cadre réglementaire de l'IE sur l'intelligence artificielle. Il propose que les systèmes d'IA peuvent être utilisés dans différentes applications, soient analysées et classées en fonction du risque qui est présent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvés, ces règles seront les premières au monde sur l'IA. L'Union Européenne définit quatre niveaux de risque. Premièrement, les risques inacceptables. Ces systèmes d'IA seront interdits. Ils comprennent la manipulation cognitive ou comportementale, un score social, une identification biométrique en temps réel et à distance. Ensuite, risques élevés, ont un impact négatif sur la sécurité ou les droits fondamentaux. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs. Également, les systèmes d'IA relevant de domaines spécifiques qui devront être enregistrés dans une base de données de l'Union Européenne seront concernés, à savoir l'éducation, l'emploi, les forces de l'ordre ou encore l'immigration. Ensuite, risques limités. Ici, l'intelligence artificielle doit respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Enfin, l'IA généraliste et générative, à l'instar de TCHAD-GPT, devront se confirmer aux exigences de transparence en indiquant le contenu généré par l'IA. Le vendredi 8 décembre, les négociateurs du Parlement et du Conseil sont pardus un accord promisant sur ce texte. Le texte approuvé devra désormais être formellement adopté par le Parlement et le Conseil pour être intégré à la législation de l'Union Européenne. La Commission du marché intérieur et des libertés civiles du Parlement votera sur l'accord lors d'une prochaine session. Cependant, certains critiques pointent une légifération précipitée face à un développement de l'intelligence artificielle encore trop timide. Ils estiment que cette régulation prématurée se placerait comme un frein à l'innovation, ce qui accentuerait le retard sur les géants américains et chinois en ce domaine. Bonjour Benjamin, je te remercie d'avoir accepté de faire ce podcast. L'interview va être traitée de l'IA Act, qui va bientôt être adoptée en Europe. Est-ce que tu peux nous présenter rapidement ? Oui, très bien. Alors, l'IA Act, en quelques mots, c'est une réglementation qui n'est pas encore tout à fait finalisée, qui a fuité récemment sur une de ses dernières versions et qui devrait sortir en version définitive en 2024 et qui est un projet initié en avril 2021 qui a pour but de proposer une régulation de l'IA en Europe. En deux mots, c'est un cadre réglementaire qui permet en fonction des différentes applications de l'IA qu'elle soit analysée et classée en fonction du risque qu'elle représente et qui définit quatre niveaux de risque sur lesquels je pourrais revenir et qui, en fonction de ce risque, qui est avéré ou contrôlé, pourra entraîner des sanctions qui sont assez similaires à celles qu'on retrouve dans les règlements européens et RGPD sur les données personnelles qui sont évaluées sur le chiffre d'affaires pour aller jusqu'à 7% du chiffre d'affaires, qui est assez important comme pénalité, plafonnée autour de 350 millions d'euros. Cela représente quand même beaucoup. Et sur ces quatre niveaux de risque, on retrouve un risque inacceptable qui est une interdiction formelle de l'utilisation de ces usages d'IA autour de tout ce qui est les scores sociaux et quelque part l'influence comportementale indirecte, donc sans que les gens le sachent, et encore plus quand c'est massif. Il y a ensuite le risque élevé, donc c'est tout ce qui peut avoir un impact négatif sur la sécurité ou les droits fondamentaux, donc là c'est plutôt tout ce qui intègre les produits comme les jouets, l'aviation, la voiture, les dispositifs médicaux, les ascenseurs par exemple, où finalement avec ces IA-là, on peut atteindre directement les personnes. Ensuite, on a des risques plutôt spécifiques autour de la transparence, donc là ça va être les fonctionnements qu'on retrouve beaucoup en ce moment sur l'IA générative et des IA assez généralistes, chat, GPT, mais pas que, qui nécessitent d'expliciter d'où viennent les données pour ne pas justement faire disparaître les droits d'auteur et utiliser à mauvaise ession et sans y référer tous les documents, tous les contenus produits par d'autres humains pour le coup. Et enfin le risque minimal, c'est celui de respecter des exigences de transparence qui permettent de prendre des décisions éclairées, par exemple tout ce qui contient de l'image, de l'audio, de la vidéo, pour éviter évidemment tous les faux, que ce soit des deepfakes sur de l'image, mais même sur de la vidéo et on l'a vu très récemment avec Joe Biden sur de la voix, où on pourrait confondre en fait et manipuler les masses. Ça c'est par rapport aux risques qui sont identifiés et donc un des points clés de cette législation c'est de mettre un organe de contrôle au niveau européen pour pouvoir justement vérifier que tout ce qui est produit et utilisé dans le cadre de ces niveaux de criticité soit analysé et scoré pour voir si les sanctions sont nécessaires. Après il y a aussi une application qui est plus locale en France mais qui n'est pas encore définie parce que forcément il faut attendre la législation européenne pour pouvoir ensuite voir les décrets d'application. Pour autant aujourd'hui il n'y a pas encore de précision, pour autant il y a quand même des souhaits de ne pas passer par l'automatisation pour pouvoir garder un certain contrôle sur les contenus. Moi personnellement je pense que c'est idéaliste parce qu'à partir du moment où on génère un certain nombre de contenus, même si on va regarder les cas d'usages globaux, c'est impossible à suivre et donc il faut forcément automatiser. Et quelle est la position de la France par rapport à l'IA et à sa réglementation ? Donc sur le rôle de la France, déjà il faut quand même rappeler que cette législation c'est la première mondiale en Europe, mondiale tout court donc l'Europe est assez en avance sur le sujet en tout cas de législation. Pour autant la France a, je reviendrai dessus, un rôle un peu particulier sur l'IA, nous sommes très volontaires avec une stratégie nationale pour l'intelligence artificielle qui s'inscrit dans France 2030, pour autant cette législation n'est pas vue d'un très bon oeil. Emmanuel Macron lui-même, je cite, précisait qu'il faut qu'on soit toujours à la bonne vitesse et au bon rythme, pour autant on ne régulera que les choses qu'on produira et finalement, fin de citation, ou qu'on n'inventera pas et donc ce n'est jamais une bonne idée, dit-il, de s'attaquer à des choses sur lesquelles on n'a pas la main puisque c'est un frein pour la compétitivité. Donc d'un côté on a quand même certains grands acteurs en France qui s'y opposent, en tout cas qui veulent s'assurer qu'on ne soit pas limitant dans l'usage de l'IA, en tout cas dans la capacité en France et en Europe d'être novateurs, mais d'un autre côté il y a quand même beaucoup de voix qui se satisfont de cette première initiative, en particulier ceux qui sont pour la régulation, donc par exemple, c'est assez drôle puisque ce n'est pas en Europe, mais Bill Gates qui dit lui-même avec certains autres grands fondateurs de groupes type GAFA ou GAFAM, qu'il pense que c'est important de mettre une éthique et de ne pas faire n'importe quoi, Elon Musk en parlait lui-même. Donc voilà, pour la France, pour être un petit peu plus précis, pourquoi on est moteur dans le cadre de la stratégie nationale pour l'intelligence artificielle lancée en 2018, il y a beaucoup d'investissements, il y a un plan qui dépasse les 2 milliards d'euros dont à peu près les trois quarts en financement public, on a un certain nombre de subventions autour des capacités de recherche, que ce soit le nombre de laboratoires, il y en a plus de 81 qui ont été créées depuis 2021, on a plus de 500 startups qui sont spécialisées, donc ça fait une hausse de 11% par rapport à 2020 et on a à peu près, d'après les derniers décomptes du gouvernement, plus de 15 000 personnes qui travaillent sur l'IA en France, en tout cas de manière spécialisée. Il y a un vrai enjeu dans ce plan avec une deuxième phase qui démarre en 2022, qui a démarré en novembre 2022 avec une accélération où il y a vraiment un objectif d'être leader en Europe sur ces aspects d'intelligence artificielle avec un certain nombre d'appels à projets, des financements qui sont croissants et un vrai objectif d'avoir en France 15% des parcs de marché sur l'IA embarqué, donc tout ce qui est embarqué c'est vraiment dans les avions, dans les voitures, dans les produits avec des capacités d'automatisation et d'aide à la décision assez large. Et on a le cas aussi récemment qui a été encensé par Bono le maire lui-même sur la startup française Mistral qui a levé plus de 385 millions d'euros. Et quel va être l'impact de cette régulation dans les années à venir ? Alors sur les impacts de l'IA Act dans les années à venir, déjà il y a deux grands sujets. Il y a le premier de se dire est-ce que finalement, on va voir quel va être le texte final, comment ça va être mis en place, mais il y a est-ce que finalement ça va freiner l'innovation et provoquer une suite des cerveaux pour aller dans la Silicon Valley développer plus avec là où sont les grands financements de l'innovation ou au contraire ça va permettre de faire de l'IA éthique et donc de générer des produits qui sont plus sûrs, plus sains et plus partagés et donc générer un marché plus complet. Moi personnellement je pense qu'il y aura un petit peu des deux parce qu'il y a forcément des acteurs qui ne se satisferont pas d'une limitation dans les cas d'usage et d'être contrôlés. D'ailleurs les américains n'aiment pas trop ça. Ce qui est étonnant quand le Biggest s'en parle c'est qu'il est lui-même encore un membre fondateur de Microsoft et donc quelque part il y travaille indirectement puisqu'il n'a plus du tout de rôle dans la société. Pour autant je suis assez convaincu qu'il y a beaucoup d'acteurs qui vont partir. A côté de ça, personnellement je pense qu'il y a un vrai intérêt à très tôt fixer des règles, des règles éthiques qui vont permettre de s'assurer que dans les produits embarqués, la France comme l'Europe aura la main sur les données qu'elle, quand on parle d'IA, avant tout on parle de données, garder une souveraineté sur les données, sur les usages et sur les capacités à générer ses propres projets, ses propres produits et donc quelque part sécuriser les usages, en particulier sur des systèmes industriels qu'on voit dans l'énergie en particulier où il y a de plus en plus de nécessité de compléter les usages, d'ajouter de l'intelligence artificielle sur de la gestion de contraintes, du temps réel, de la multiplicité d'équipements, IoT, cloud etc qui font qu'avec la massification des données, on n'est même plus dans le Big Data, c'est bien plus grand, on a une nécessité d'aide à la décision et de la rapidité avec les ENR, c'est encore pire avec le foisonnement et donc on a besoin de ces systèmes et donc autant qu'ils soient sécurisés, qu'ils limitent les risques de propagation et qu'on ait une certaine forme de souveraineté française ou européenne sur ces produits là et qu'on subisse pas un Google d'où toutes les données partent à l'étranger et comme on l'a vu sur les sujets américains qui, quand à partir du moment où vous travaillez avec eux, les données sont à eux et ça pose des vrais problèmes de souveraineté industrielle ou même sociale sur la France et sur l'Europe. Et quelles sont tes convictions sur le rôle de l'IA et l'importance d'un contrôle éthique ? Alors sur l'éthique, sur le rôle de l'IA, je pense qu'il y a quelques exemples assez effarants pour nous européens et français en particulier, quand on voit sur la Chine qui a systématisé le contrôle facial dans les transports, adosser un score social à une mutuelle ou à une assurance ou à une capacité d'habiter à tel endroit, de louer des voitures, en fait de créer une société à deux vitesses entre ceux qui ont le droit et ceux qui n'ont pas le droit et même à côté de ça encore pire, quelque part on déshumanise en automatisant les décisions, on va créer une société fracturée où à partir du moment où on a fait une erreur, on ne pourra jamais la réparer et on sera même dans le cas de la Chine, interdit de sortir d'une certaine zone, donc quelque part en prison de ces choix de l'IA et on le retrouve d'ailleurs dans un épisode de Black Mirror sur le score social qui décrit ça très bien. On peut s'en contenter mais on ne peut pas si on a une vision démocratique et dans la devise française de liberté, d'avoir cette capacité à être gérée automatiquement, juridiquement par un algorithme qui décide finalement, peut-être avec des règles qui sont à discuter, mais qui dirige en fait directement un état social ou qui dirige les masses. Donc moi ma conviction c'est qu'il y a un gros enjeu de sécurisation et aussi de droits qu'on laisse à l'IA, pour autant au-delà de l'aspect social et on le voit très bien dans toutes les analyses médicales qui sont faites sur l'aide au diagnostic, que l'IA est plus forte que nous, c'est-à-dire elle a une capacité à proposer le diagnostic, par exemple il y a un cas assez spectaculaire sur des analyses de radio où il y a, je ne sais plus, c'est assez impressionnant, je crois que c'était 1000 radiologues qui analysaient un certain nombre de radios et qui pouvaient établir un diagnostic et l'IA fait mieux dans 99% des cas où elle a le diagnostic tout de suite et ça c'est, je trouve que c'est assez impressionnant et ça va permettre de générer de nouveaux vaccins, de nouvelles adès à la décision, surtout avec une, aujourd'hui on a des problèmes en France locaux sur l'accès à la médecine, l'accès au diagnostic, l'accès aux examens et avec toute cette aide à la décision on va pouvoir systématiser ou en tout cas simplifier un certain diagnostic et sauver des vies, créer des usages et être capable en avance de phase d'avoir une vie meilleure. Donc il y a ce côté-là de cas d'usage qui vont nous aider à mieux nous comprendre, à accélérer, comment dire, notre survie mais à côté de ça on peut aussi donner la main sur du politique, sur du judiciaire, sur du contrôle de mal, sur la désinformation, un outil surpuissant qui peut sans aucun contrôle simplement décider du sort d'une élection, on en parlait précédemment en préparant sur Cambridge Analytica mais pas que, vraiment décider à notre place de ce qui est mieux pour nous et comme on dit le mieux est le mieux du bien et parfois il vaut mieux faire des choses qu'on comprend pour les expliquer et pour les vivre correctement. Je te remercie d'avoir accepté de participer à notre podcast, merci également aux auditeurs et n'hésite pas à nous faire vos retours.