Que diriez-vous de ne pas aller de l’avant avec une technologie qui pourrait tuer tous les humains ?


Voici donc une réflexion. Au lieu d’aller de l’avant avec une technologie qui, selon ses principaux inventeurs, pourrait bientôt avoir le pouvoir de tuer des humains, pourquoi ne pas aller de l’avant ?

Cette notion radicale est motivée par un avertissement de l’homme qui a créé le groupe de travail sur l’intelligence artificielle du Premier ministre. Matt Clifford a observé que « vous pouvez avoir des menaces vraiment très dangereuses pour les humains qui pourraient tuer de nombreux humains, pas tous les humains, simplement d’où nous nous attendrions à ce que les modèles soient dans deux ans. » A la réflexion, j’exagère peut-être. Ses remarques complètes étaient plus nuancées et de toute façon ce ne sont pas tous des humains. Juste beaucoup d’entre eux.

Mais des avertissements tout aussi apocalyptiques sont venus de personnalités de premier plan dans son développement, écrivant sous l’égide du Center for AI Safety. Dans un avertissement admirablement succinct, un who’s who de l’industrie de l’IA a souligné que : « L’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire ». Les chefs de Google DeepMind, OpenAI et d’innombrables autres ont pris du temps pour inventer la technologie qui pourrait anéantir toute vie humaine pour avertir le reste d’entre nous que, vraiment, quelque chose devrait être fait pour empêcher que cela se produise.

Et ces gars sont censés être des génies ? Dans les hangars de rempotage en Angleterre, il y a un certain nombre de types un peu farfelus qui ont inventé une nouvelle machine qui pourrait être brillante mais qui pourrait aussi incendier leur maison, et la plupart d’entre eux ont réussi à comprendre par eux-mêmes que peut-être que l’appareil n’est pas tel une super idée finalement.

C’est là que les inventeurs de la petite frite se sont trompés. Peut-être qu’au lieu de déterminer les risques pour eux-mêmes, ce qu’ils avaient vraiment besoin de faire était de gagner plusieurs milliards de livres de financement en capital-risque, puis d’écrire une lettre au conseil local avertissant qu’ils devaient vraiment être contrôlés.

Je reconnais, pour être sérieux, que de grandes choses sont attendues de l’intelligence artificielle, dont beaucoup n’impliquent pas l’effacement de la race humaine. Beaucoup soutiennent que l’IA pourrait jouer un rôle central dans la réalisation d’un avenir sans carbone, bien que ce ne soit peut-être qu’un euphémisme pour anéantir l’humanité.

Tout aussi important est que les avancées déjà réalisées ne peuvent pas être inventées. Mais déjà, les chatbots IA falsifient les informations – ou « hallucinent » comme ses développeurs préfèrent le dire – et ses inventeurs ne savent pas trop pourquoi. Il semble donc y avoir un argument pour ralentir et aplanir cette petite ride avant de passer à, vous savez, une technologie au niveau de l’extinction.

Une vision généreuse des leaders technologiques qui demandent à être tenus en laisse est qu’ils sont responsables et que ce sont les autres acteurs irresponsables dont ils s’inquiètent. Ils aimeraient en faire plus mais, voyez-vous, les gars de Google ne peuvent pas se laisser battre par les gars de Microsoft.

Ces avertissements sont donc une tentative de secouer les politiciens et les régulateurs pour qu’ils agissent, ce qui est sacrément sportif de leur part étant donné que les dirigeants mondiaux ont un bilan si stellaire de réponse coopérative et intelligente aux menaces au niveau de l’extinction. Je veux dire allez. Ils en ont parlé au Congrès américain. Je ne pense pas qu’on puisse demander beaucoup plus. Et le gouvernement britannique est désormais sur le dossier, ce qui serait plus rassurant s’il n’avait pas encore du mal à traiter les demandeurs d’asile en moins de 18 mois.

Avec un peu de chance, les avertissements inciteront en effet les gouvernements à prendre des mesures utiles. Cela mène peut-être à des normes mondiales, à des accords internationaux et à un moratoire sur les développements meurtriers.

Quoi qu’il en soit, la conscience des gourous de l’IA est maintenant claire. Ils ont fait tout ce qu’ils pouvaient. Et si un jour, vers 2025, les machines acquièrent effectivement le pouvoir de nous anéantir – désolé, beaucoup d’entre nous – j’aime à penser que dans les dernières secondes, l’IA lancera une dernière enquête aux esprits brillants qui ont sciemment fait une gaffe. avec une technologie qui pourrait nous détruire sans à ce stade trouver comment, vous savez, l’empêcher de le faire.

« Pourquoi avez-vous continué, connaissant les risques ? » demande SkyNet. Et dans leurs dernières secondes les génies répondent : « Qu’est-ce que tu veux dire ? Nous avons signé une déclaration.

Suivez Robert sur Twitter @robertshrimsley et envoyez-lui un e-mail à [email protected]

Suivre @FTMag sur Twitter pour découvrir nos dernières histoires en premier





ttn-fr-56