L’IA « dépassera le cerveau humain » après une avancée majeure, selon un scientifique qui prévient que l’humanité doit construire un « coupe-circuit »


L’intelligence ARTIFICIELLE est sur le point de surpasser les capacités du cerveau humain – mais de telles avancées ont un prix.

Un analyste de la technologie de l’IA dit que nous sommes juste mesures loin de déchiffrer le « code neuronal » qui permet aux machines d’apprendre consciemment comme les humains.

3

Un spécialiste de l’IA estime que la technologie est en passe de devenir consciente et de dépasser les capacités du cerveau humain

Eitan Michael Azoff croit que nous sommes sur la voie de la création d’une intelligence supérieure dotée d’une plus grande capacité et d’une plus grande vitesse.

Le spécialiste de l’IA défend cette thèse dans son nouveau livre, Vers une intelligence artificielle de niveau humain : comment les neurosciences peuvent éclairer la quête de l’intelligence artificielle générale.

Selon Azoff, l’un des éléments clés mesures Pour débloquer une « IA de niveau humain », il faut comprendre le « code neuronal ».

Le terme décrit la manière dont notre cerveau code les informations sensorielles et effectue des tâches cognitives comme la réflexion et la résolution de problèmes.

Azoff dit que l’un des points critiques mesures La construction d’une « IA de niveau humain » consiste à imiter la conscience dans les ordinateurs – probablement sans conscience de soi, semblable à ce que les humains ressentent lorsqu’ils se concentrent sur une tâche.

La conscience sans conscience de soi aide les animaux à planifier leurs actions et à se souvenir de leurs souvenirs – et elle pourrait faire la même chose pour l’IA.

L’IA actuelle ne « pense » pas visuellement. modèles comme GPT-4 peut traiter et générer du texte de type humain.

La pensée visuelle étant antérieure au langage humain, Azoff estime que la compréhension de ce processus et la modélisation du traitement visuel constitueront une étape cruciale.

« Une fois que nous aurons déchiffré le code neuronal, nous concevrons des cerveaux plus rapides et supérieurs, dotés d’une plus grande capacité, d’une plus grande vitesse et d’une technologie de soutien qui surpassera le cerveau humain », a expliqué Azoff.

« Nous y parviendrons d’abord en modélisant le traitement visuel, ce qui nous permettra d’imiter la pensée visuelle. »

Un test d’IA terrifiant révèle que la plupart des Américains ne peuvent pas reconnaître une fausse voix lorsqu’on leur demande – tentez votre chance contre l’étrange « deepfake »

Cependant, l’analyste ne croit pas qu’un système ait besoin d’être vivant pour avoir une conscience.

Sa logique remet en question le fonctionnement de l’intelligence artificielle.

Apprentissage automatique actuel modèles ne peuvent exister sans un certain degré d’implication humaine, car ils doivent être constamment alimentés par des données nouvelles et précises.

IA auto-apprenante, qui consomme sa propre production ou celle d’autres modèlesdécline constamment dans la qualité de ses réponses.

Cette « consanguinité » se rencontre de plus en plus à mesure que le contenu généré par l’IA inonde Internet et se retrouve dans les ensembles de données.

Au-delà de ces écueils, Azoff reconnaît volontiers une utilisation abusive potentielle de la technologie.

En raison du risque imminent, nous devons développer un « kill switch » pour la technologie – même si des entreprises comme Google et OpenAI continuent de progresser dans l’intégration de l’IA

3

En raison du risque imminent, nous devons développer un « kill switch » pour la technologie – même si des entreprises comme Google et OpenAI continuent de progresser dans l’intégration de l’IA

« Tant que nous n’aurons pas davantage confiance dans les machines que nous construisons, nous devons veiller à toujours respecter les deux points suivants », a déclaré Azoff.

« Tout d’abord, nous devons nous assurer que les humains ont le contrôle exclusif de l’interrupteur. Ensuite, nous devons créer des systèmes d’IA avec des règles de sécurité comportementale implantées. »

Mais une question demeure : est-ce un défi que nous devons relever ?

L’intelligence artificielle s’avère déjà impopulaire auprès des consommateurs, car de grandes entreprises comme Google et Meta continuent d’intégrer des fonctionnalités d’IA à leurs services existants.

Métapour sa part, a admis avoir alimenté son IA avec des informations extraites des profils publics de millions d’utilisateurs de Facebook et d’Instagram.

Les utilisateurs consentent par défaut lorsqu’ils s’inscrivent pour utiliser les services, et un formulaire de désinscription bien caché s’applique uniquement à ceux qui peuvent présenter un argument juridique convaincant en faveur de la protection des données.

Microsoft a retardé indéfiniment la sortie de Recall, un assistant IA omniscient, sur les PC Copilot+ face aux critiques, mais a depuis repris le déploiement

3

Microsoft a retardé indéfiniment la sortie de Recall, un assistant IA omniscient, sur les PC Copilot+ face aux critiques, mais a depuis repris le déploiementCrédits : © 2024 SOPA Images

Les entreprises technologiques ne comptent pas ralentir la cadence de sitôt. Face à la réaction négative, Microsoft a repris le déploiement de son assistant virtuel doté d’une intelligence artificielle, Recall.

La sortie a été retardée indéfiniment jusqu’à la semaine dernière, lorsque Microsoft a annoncé que l’outil serait disponible pour des tests bêta en octobre.

Le programme prend des captures d’écran toutes les quelques secondes pour créer une bibliothèque de contenu consultable, que l’IA analyse ensuite.

Et les inquiétudes ne cessent de croître. printemps en haut. Dans le cadre d’un procès en cours, OpenAI a plaidé pour le vol de matériel protégé par le droit d’auteur, plaidant que son modèles j’en ai besoin pour fonctionner.

Ces risques ne devraient que s’intensifier à mesure que l’IA se développe – et à mesure qu’elle s’oriente vers le développement d’une intelligence surhumaine, cela donnera indéniablement lieu à de nouveaux problèmes.



ttn-fr-58