Elon Musk et des centaines d’autres entrepreneurs et chercheurs appellent à une pause dans le développement de l’IA


“Des systèmes d’IA puissants ne devraient être développés que lorsque nous sommes sûrs que leur impact est positif et que leurs risques sont gérables.” C’est ce qu’écrit l’asbl Future of Life dans une lettre ouverte publiée le 22 mars et signée par plus de 26 000 développeurs, entrepreneurs et chercheurs un peu moins d’un mois plus tard. Les partisans des revendications exprimées dans la lettre incluent les patrons de Tesla Elon Musk y compris le lauréat du prix Turing Yoshua Bengio et le co-fondateur d’Apple Steve Wozniak. L’écrivain et historien de renommée mondiale Yuval Noah Harari a également signé.

L’exigence : les IA hautement intelligentes ne doivent pas être formées pendant six mois

Dans la lettre, les experts posent la question de la moralité et de la manière dont nous voulons nous développer en tant que société : « Devrions-nous développer des esprits non humains qui pourraient un jour être plus nombreux que nous, être plus intelligents que nous et nous rendre superflus et [dann] pourrait remplacer ? Doit-on risquer de perdre le contrôle de la société ?”

Bien que leurs opinions puissent différer sur ces questions, tous les signataires s’accordent sur un point : avant que cela ne se produise, ils estiment que la société devrait décider collectivement d’une voie et rédiger un ensemble de règles pour le développement et l’utilisation des IA – de préférence hier. “Nous appelons tous les laboratoires d’IA à suspendre la formation des systèmes d’IA plus puissants que GPT-4 pendant au moins six mois avec effet immédiat”, indique la lettre ouverte. Cela n’exige en aucun cas une pause absolue dans le développement, mais plutôt que les entreprises, chercheurs et développeurs prennent du recul par rapport à la course dangereuse qui se déroule actuellement dans le domaine de l’intelligence artificielle. Selon le soussigné, pendant la pause de six mois, l’ensemble de l’industrie devrait se concentrer uniformément sur la sécurité et la fiabilité de la nouvelle technologie.

Experts : les IA pourraient manipuler les canaux d’information

La raison de ces demandes est que Future of Life et les soussignés voient actuellement “des risques profonds pour la société et l’humanité” dans des IA particulièrement intelligentes. Il n’est donc pas déraisonnable que les IA inondent les canaux d’information de propagande et de contrevérités dans un avenir proche. Ces risques doivent être limités avant de poursuivre la formation des IA puissantes existantes et nouvelles.

En plus de l’élaboration conjointe d’un ensemble de règles pour traiter l’intelligence artificielle, les soussignés exigent que tous les développeurs rendent leurs travaux existants et futurs publiquement vérifiables sur les plateformes publiques. Ils demandent également un moratoire à tous les États si celui-ci n’est pas respecté et si l’industrie ne rédige pas bientôt un ensemble de règles qui s’appliquent à tous.

Bureau éditorial finanzen.net

Produits à effet de levier sélectionnés sur Apple Inc.Avec les knock-outs, les investisseurs spéculatifs peuvent participer de manière disproportionnée aux mouvements de prix. Sélectionnez simplement le levier souhaité et nous vous montrerons les produits ouverts appropriés sur Apple Inc.

L’effet de levier doit être compris entre 2 et 20

Pas de données

Crédits image : Joshua Lott/Getty Images, Diego Donamaria/Getty Images pour SXSW



ttn-fr-28