IA : Les géants de la tech mettent sur pied le Frontier Model Forum
Les inquiétudes concernant les potentiels dangers de l’intelligence artifiecielle se sont fait ressentir depuis le lancement de ChatGPT. En effet, elles sont devenues encore plus profondes lorsque Google a lancé son IA, Bard. Pour rassurer l’opinion, Google, Microsoft, OpenAI et la startup d’IA Anthropic ont fait une annonce le 26 juillet. Selon cette annonce, ils formeraient le Frontier Model Forum, un nouveau groupe de surveillance de l’industrie pour aider à réglementer le développement de l’intelligence artificielle (IA).
En quoi consistera le Frontier Model Forum ?
Certaines entreprises de la big tech ont annoncé la création du Frontier Model Forum. Comme le rappelle CoinTelegraph, le but de ce forum est de s’assurer que le développement des modèles IA se fasse de manière « sûre et responsable ». Le communiqué arrive dans un contexte dans lequel les gouvernements du monde prennent déjà des mesures fortes pour réglementer le développement et le déploiement de l’IA. « Le Forum sera un véhicule pour les discussions et les actions inter-organisationnelles sur la sécurité et la responsabilité de l’IA » souligne le communiqué.
Le Frontier Model Forum permettra à terme d’avancer les recherches sur la sécurité de l’IA. Ainsi, en mettant en commun les experts du domaine sur la même plateforme, on pourra identifier plus facilement les meilleures pratiques de développement. Toutes les organisations et les gouvernements peuvent adhérer au forum.
Peut-on garder l’IA sous contrôle ?
Brad Smith, président de Microsoft a déclaré : « Les entreprises qui créent la technologie de l’IA ont la responsabilité de s’assurer qu’elle est sûre, sécurisée et reste sous contrôle humain ». Il ajoute ensuite : « Cette initiative est une étape essentielle pour rassembler le secteur de la technologie. Ainsi, cela permettra de faire progresser l’IA de manière responsable et de relever les défis. »
La vice-présidente des affaires mondiales chez OpenAI, Anna Makanju a déclaré : « Il est essentiel que les entreprises d’IA, en particulier celles qui travaillent sur les modèles les plus puissants. Ils doivent trouver un terrain d’entente et faire progresser des pratiques de sécurité réfléchies et adaptables. Ainsi, cela permettra de garantir que les outils d’IA puissants présentent les avantages les plus larges possibles. »
En somme, la mise en place d’un dispositif pour règlementer l’IA à travers le Frontier Model Forum a été très rapide. Cela est sûrement dû au danger de son déploiement irresponsable. De son côté, l’industrie crypto réclame depuis longtemps la même chose pour les actifs numériques. Doit-on comprendre que les crypto-monnaies ne sont pas une affaire si sérieuse aux yeux des dirigeants ?
Maximisez votre expérience Cointribune avec notre programme 'Read to Earn' ! Pour chaque article que vous lisez, gagnez des points et accédez à des récompenses exclusives. Inscrivez-vous dès maintenant et commencez à cumuler des avantages.
Rédacteur web SEO spécialisé dans les crypto-monnaies, la finance décentralisée et le Web 3, je produis des textes engageants et d'actualité. Mon but est de démocratiser l'univers de la crypto et informer les lecteurs des nouveautés dans le secteur.
Les propos et opinions exprimés dans cet article n'engagent que leur auteur, et ne doivent pas être considérés comme des conseils en investissement. Effectuez vos propres recherches avant toute décision d'investissement.