Leur engagement est double : garantir que leurs produits sont sûrs avant leur lancement, et construire des systèmes qui placent la sécurité au premier plan. C'est une étape clé pour gagner la confiance du public et pour démontrer aux régulateurs que l'industrie de l'IA peut s'autoréguler efficacement.
Les pontes de l’IA se sont unis pour présenter le "Frontier Model Forum". Ce forum a pour but de promouvoir un développement sécurisé et responsable des modèles d'IA avancés. Il s'agit d'une initiative qui vise non seulement à minimiser les risques liés à l'IA, mais aussi à prouver que les compagnies IA peuvent s'autoréguler afin d'éviter une surrégulation punitive qui pourrait freiner l'innovation.
Le forum a quatre objectifs principaux : faire progresser la recherche sur la sécurité de l'IA, déterminer les meilleures pratiques, favoriser la collaboration entre les parties prenantes pour le partage des connaissances, et développer des applications qui répondent aux défis pressants de la société.
La création du Frontier Model Forum est également une réponse à la prolifération rapide de modèles d'IA puissants et potentiellement dangereux. Les entreprises qui souhaitent rejoindre le forum doivent démontrer un engagement fort envers la sécurité des modèles de frontière et contribuer à la réalisation des objectifs du forum.
Alors que l'IA devient de plus en plus intelligente, le forum prévoit de freiner ce développement en mettant en place des mesures de sécurité plus strictes. Cela devrait servir également de pont entre les entreprises, les gouvernements et tous les autres acteurs pour aborder les risques et les problèmes de sécurité liés aux intelligences artificielles.
En fin de compte, nous pouvons nous attendre à un organisme parapluie qui va régir le développement de l'intelligence artificielle. Au cours des prochains mois, le forum établira un conseil consultatif qui déterminera la direction à suivre. Ce conseil sera composé de personnes de divers horizons, afin d'assurer une représentation équitable.