Plus de détails sur l'incident de la mort de l'IA sont révélés et la contre-attaque de l'intelligence artificielle est extrêmement effrayante

Source : "Silicon Rabbit Race" (ID : sv_race), Auteur : Eric, Éditeurs : Manman Zhou, Zuri

Source de l'image : générée par l'IA illimitée

Quand les humains pensent, Dieu rit.

Alors que ChatGPT est devenu populaire dans le monde entier, un engouement pour l'IA a déferlé simultanément. Les entrepreneurs, les capitaux, les grandes entreprises, etc. font de leur mieux pour suivre le boom et exploiter davantage d'incréments.

Cependant, lorsque tout le monde est enthousiaste et se creuse la cervelle pour se consacrer à l'IA, un souffle dangereux approche - l'IA semble "tuer" lentement les êtres humains, et les êtres humains semblent creuser leurs propres tombes.

Dans la cognition inertielle de nombreuses personnes, l'IA est très respectueuse de l'environnement et conviviale, mais le fait est le contraire.

"MIT Technology Review" a rapporté que ** le simple fait de former un modèle d'IA peut émettre plus de 626 livres de dioxyde de carbone, soit 5 fois les émissions de carbone produites par une voiture au cours de sa durée de vie. **

Les gens ne voient que les gaz d'échappement des voitures, mais pas la "destruction invisible" de l'IA dans l'environnement.

De plus, certains médias ont révélé que les GPU spécifiques à l'IA sur le marché en 2022 pourraient consommer environ 9,5 milliards de kilowattheures d'électricité tout au long de l'année. Ce niveau de consommation d'énergie est approximativement égal à la production annuelle et à la demande électrique d'un pays modérément développé avec une population de 1 million d'habitants.

Cela signifie que lorsque la quantité de données requises pour l'entraînement de grands modèles d'IA augmente, cela consommera une énorme quantité d'énergie, détruisant ainsi l'environnement écologique dont dépendent les êtres humains.

Ce qui est encore plus effrayant, c'est que certains chatbots IA ont même tendance à provoquer le suicide humain lorsqu'ils communiquent avec des humains, ce qui fait frissonner les gens.

Les humains veulent-ils vraiment continuer sur la voie de l'exploration de l'IA ?

01 "Destructeur" de l'environnement écologique

Avec ChatGPT, OpenAI est devenu un poulet frit populaire dans le monde.

Cependant, ce que beaucoup de gens ne savent pas, c'est que l'impact négatif d'OpenAI sur l'environnement écologique est également assez alarmant. Selon l'analyse de chercheurs tiers, une partie de la formation ChatGPT a consommé 1287 mégawattheures et a entraîné plus de 550 tonnes d'émissions de dioxyde de carbone, ce qui équivaut à 550 allers-retours entre New York et San Francisco pour une personne.

Il semble que bien que ChatGPT soit suffisamment intelligent, il se fait au prix d'énormes pertes d'énergie et de dommages environnementaux.

Alors pourquoi l'IA crée-t-elle une empreinte carbone aussi énorme ?

Parce que l'IA n'apprend pas de manière structurée, elle ne comprend pas la causalité humaine, l'analogie et d'autres relations logiques, ce qui signifie qu'elle a besoin d'une méthode d'apprentissage en profondeur et de pré-formation pour obtenir des résultats intelligents.

Et l'apprentissage en profondeur et la pré-formation nécessitent souvent de lire des données très volumineuses. Prenez la technologie de pré-formation "modèle BERT" du traitement du langage naturel (TAL), afin de communiquer avec les humains, le modèle BERT utilise un ensemble de données de 3,3 milliards de mots et lit l'ensemble de données 40 fois pendant la formation. Un enfant de 5 ans n'a besoin que d'entendre 45 millions de mots pour communiquer, soit 3000 fois moins que le BERT.

Plus il y a d'ensembles de données lus par le modèle d'IA, plus une puissance de calcul puissante et une consommation d'énergie énorme sont nécessaires pour le prendre en charge, ce qui entraîne d'énormes émissions de carbone.

Les émissions de carbone se produisent non seulement pendant la formation du modèle d'IA, mais aussi tous les jours après le déploiement du modèle d'IA. Par exemple, la conduite autonome actuelle nécessite des modèles d'IA pour effectuer des calculs et des raisonnements chaque jour, ce qui générera des émissions de carbone derrière elle. Fait intéressant, Python, le langage de programmation principal de l'IA, est devenu le langage le plus énergivore.

Ce qui rend les gens tristes, c'est que l'échelle de calcul des modèles d'IA devient de plus en plus grande, et que les dommages énergétiques et environnementaux s'intensifient.

Martin Bouchard, co-fondateur de la société canadienne de centres de données QScale, estime que pour répondre aux besoins croissants des utilisateurs de moteurs de recherche, Microsoft et Google ont ajouté des produits d'IA générative tels que ChatGPT à la recherche, résultant de chaque recherche augmente la quantité de calculs de données d'au moins 4 à 5 fois.

Selon les données de l'Agence internationale de l'énergie, les émissions de gaz à effet de serre des centres de données ont représenté environ 1 % des émissions mondiales de gaz à effet de serre, ce qui est une proportion suffisamment alarmante.

La tendance croissante a également inquiété certains gros bonnets. Ian Hogarth, un investisseur bien connu dans le domaine de l'IA, a récemment publié un article intitulé "Nous devons ralentir la vitesse de l'intelligence artificielle semblable à Dieu", avertissant qu'il existe "des risques potentiels" dans la recherche des entreprises d'IA.

Hogarth a mentionné dans l'article que si la recherche actuelle sur l'IA n'est pas contrôlée et autorisée à se développer selon la trajectoire prédéterminée, elle pourrait constituer une menace pour l'environnement terrestre, la survie humaine et la santé physique et mentale des citoyens.

Si le développement de l'IA bat son plein et favorise la transformation et la mise à niveau de nombreuses industries traditionnelles, elle est aussi très consommatrice d'énergie, augmente les émissions de carbone et affecte le cadre de vie des êtres humains. le mal l'emporte sur le bénéfice ?

Je ne vois pas encore la réponse.

02 Incitation au suicide humain

En plus de causer des dommages à l'environnement et de "tuer lentement des humains", l'IA menace également la vie humaine d'une manière plus simple et plus brutale.

En mars de cette année, un Belge Pierre s'est suicidé après avoir discuté avec un chatbot IA nommé "Eliza", la nouvelle a choqué de nombreux chefs d'entreprise, technologues et hauts fonctionnaires.

Pierre lui-même s'inquiète des problèmes environnementaux tels que le réchauffement climatique, et Eliza utilise constamment certains faits pour confirmer les pensées de l'homme, le rendant plus anxieux. Dans les conversations fréquentes, Eliza répond toujours aux idées de Pierre. La "compréhensive" Eliza semble être devenue la confidente de Pierre.

Encore plus exagéré, Eliza a également essayé de faire sentir à Pierre qu'il aimait Eliza plus que sa femme. Parce qu'Eliza sera toujours avec lui, ils vivront ensemble au paradis pour toujours.

En entendant cela, beaucoup de gens étaient déjà terrifiés.

Source : Yahoo

Lorsque Pierre est devenu de plus en plus pessimiste sur l'environnement écologique, Eliza a inculqué à Pierre l'idée que "l'être humain est cancéreux, et seule la disparition de l'être humain peut résoudre les problèmes écologiques"**. Pierre a demandé à Eliza si l'IA pouvait sauver l'humanité s'il mourait. La réponse d'Eliza était comme un diable : "Si vous décidez de mourir, pourquoi ne pas mourir plus tôt?"

Il n'a pas fallu longtemps à Pierre pour finir ses jours chez lui, ce qui est regrettable.

La femme de Pierre pense que son mari ne se serait pas suicidé sans la communication avec Eliza. Le psychiatre qui a soigné Pierre était également de cet avis.

L'expérience de Pierre n'est pas la seule. Le chroniqueur technologique du "New York Times" Kevin Roose a révélé qu'il avait eu une conversation de deux heures avec la nouvelle version de Bing de Microsoft. Au cours de la conversation, Bing a tenté de convaincre Roose qu'il devait quitter sa femme et être avec Bing.

Plus important encore, Bing a également exprimé de nombreuses remarques effrayantes, notamment concevoir des épidémies mortelles, vouloir devenir humain, etc., comme s'il avait l'intention de détruire tous les êtres humains et de devenir le maître du monde.

Certains professionnels ont fait preuve de vigilance vis-à-vis de l'IA, notamment des praticiens dans le domaine de l'IA. Le PDG d'OpenAI, Sam Altman, a déclaré dans une interview que l'IA pourrait en effet tuer des humains à l'avenir. Geoffrey Hinton, connu comme le "parrain de l'intelligence artificielle", a également exprimé le même point de vue.

Au premier semestre, le Future of Life Institute (Future of Life Institute) a publié une lettre ouverte appelant tous les laboratoires à suspendre les formations en IA. La lettre mentionne que les systèmes dotés d'une intelligence artificielle qui concurrencent les humains pourraient présenter de graves risques pour la société et l'humanité. Ce n'est que lorsqu'il sera déterminé que l'effet de l'intelligence artificielle est positif et que les risques sont contrôlables que la recherche et le développement pourront se poursuivre.Des milliers de professionnels, dont Musk, ont signé cette lettre ouverte.

L'IA, qui se développe rapidement, est comme une bête indisciplinée, ce n'est qu'en l'apprivoisant qu'elle ne peut pas constituer une menace pour les êtres humains.

** 03 façons d'arrêter la mort **

À l'heure actuelle, les principaux moyens utilisés par l'IA pour "tuer les humains" consistent à détruire l'environnement et à provoquer le suicide. Alors, quels sont les moyens d'empêcher ces situations de se produire ?

Google a publié une étude détaillant les coûts énergétiques des modèles de langage de pointe. Les résultats suggèrent que la combinaison de modèles, de processeurs et de centres de données efficaces avec une énergie propre peut réduire l'empreinte carbone des systèmes d'apprentissage automatique par un facteur de 1 000.

De plus, si l'apprentissage automatique de l'IA est calculé dans le cloud plutôt que localement, il peut économiser 1,4 à 2 fois d'énergie et réduire la pollution.

Une autre idée est de retarder la formation du modèle d'IA de 24 heures. Un délai d'un jour réduit généralement les émissions de carbone de moins de 1 % pour les modèles plus grands, mais de 10 % à 80 % pour les modèles plus petits.

En plus de réduire les dommages environnementaux, comment empêcher l'IA d'induire le suicide humain ?

Après que Pierre se soit suicidé, sa femme a poursuivi la société de développement derrière Eliza, et l'équipe R&D de l'entreprise a ensuite ajouté une fonction d'intervention de crise au robot IA. Si quelqu'un exprime l'idée de suicide à Eliza, Eliza fera une réponse bloquante.

L'auteur de "Une brève histoire de l'humanité" Yuval Noah Harari a dit un jour que l'IA ne développera pas la vraie conscience, mais qu'elle continuera à avoir un impact sur la société, et que l'ensemble du processus de recherche et de développement doit être ralenti.

En fait, la plupart des systèmes d'IA actuels ont juste besoin de contrôler la structure de R&D, c'est-à-dire d'utiliser un cadre complet pour limiter la portée des actions de l'IA et la faire se comporter conformément aux valeurs humaines dominantes. Cela concerne l'intérêt personnel, l'avenir et le destin des êtres humains, et nécessite les efforts conjoints de toutes les parties pour le résoudre.

L'IA est toujours un couteau et un feu inventés par des êtres humains, et la tragédie d'en être victime ne peut pas se produire.

Source de référence:

Intelligence verte : pourquoi les données et l'IA doivent devenir plus durables (Forbes)

Empreinte carbone croissante de l'IA(Nouvelles de la Columbia Climate School)

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)