Pour l’Angleterre et les Etats-Unis, les ambitions sont de « […] renforcer [les] capacités de recherche en matière d’IA, […] notamment sur des efforts visant à élargir l’accès aux puissants superordinateurs nécessaires à l’entraînement des IA.» Signée la semaine passée par de nombreux états à Bletchley, la déclaration éponyme «[…] prévoit de mieux évaluer et gérer les risques liés à la puissance de l’IA «frontier», c’est-à-dire des systèmes avancés susceptibles d’être utilisés pour développer des technologies à risque, telles que les armes biologiques. Pionnier de l’IA et directeur scientifique de Mila, l’Institut québécois de l’IA au Canada, Yoshua Bengio souligne le rôle très dominant des entreprises dans le domaine, et les profits convoités. «Nous avons besoin d’universitaires et d’organisations financées par le gouvernement qui travaillent réellement à la protection du public pour pouvoir mieux comprendre ces systèmes» dit-il. (Nature)
Le ministre français de l’économie Bruno Le Maire se montre ouvertement ironique, déclarant que «[s]i l’on écoute certaines présentations apocalyptiques, on a l’impression que des robots hostiles vont débarquer dans nos rues.» (03.11 – Le Monde) «Certains voient dans les discours alarmistes un détournement de l’attention d’autres problèmes plus immédiats, comme les erreurs, les biais discriminatoires, le respect du droit d’auteur ou l’impact sur l’emploi. Lors du sommet, ce discours a été relayé par [la vice-présidente des Etats-Unis] Kamala Harris – qui a jugé ces risques «existentiels pour ceux qui les vivent».» (04.11 – Le Monde)
Avis partagé par un auteur d’un article dans Science Business, qui remarque que «[l]es universités de l’UE ont été pratiquement exclues du sommet britannique sur la sécurité de l’IA […]. 46 universités, groupes de réflexion et centres de recherche ont été invités, mais une seule institution de l’UE – University College Cork – a reçu une invitation par courrier, alors que le Québec, à lui seul, comptait trois institutions présentes.» Il s’interroge : «Mais qu’est-ce que tout cela signifie pour les chercheurs universitaires, qui ont été laissés de côté par les entreprises technologiques américaines et chinoises lorsqu’il s’agit de construire des modèles d’IA de pointe ?»
- transformation numérique
- risques pour la recherche
- recherche – éthique
- politique – Europe
- collaboration hautes écoles – politique
- recherche – impact
- politique – Grande-Bretagne
- intelligence artificielle