出典:『シリコンラビットレース』(ID:sv\_race)、著者:Eric、編集:Manman Zhou、Zuri 画像ソース: Unbounded AI によって生成人間が考えると神は笑う。ChatGPT が世界中で普及するにつれて、同時に AI ブームが巻き起こりました。起業家、資本、大企業などは、ブームに乗り遅れずにさらなる増額を利用しようと全力を尽くしています。しかし、誰もが熱心に知恵を絞ってAIに打ち込んでいるとき、危険な息吹が近づいている――AIは徐々に人間を「殺し」、人間は自ら墓穴を掘っているように見える。多くの人々の慣性認知では、AI は非常に環境に優しく、友好的であるように思われますが、実際はその逆です。「MIT Technology Review」は、** AI モデルをトレーニングするだけで 626 ポンドを超える二酸化炭素を排出する可能性があると報告しました。これは、自動車がその生涯にわたって排出する炭素排出量の 5 倍です。 **人々は車の排気ガスしか見ていないが、AIによる環境への「目に見えない破壊」については見ていない。さらに、一部のメディアは、2022 年に市場に投入される AI 専用 GPU は、年間を通じて約 95 億キロワット時の電力を消費する可能性があると明らかにしました。このエネルギー消費レベルは、人口 100 万人の中程度発展途上国の年間生産量と生活電力需要にほぼ等しいです。これは、AIの大規模モデルの学習に必要なデータ量が増加すると、膨大なエネルギーを消費し、人類が依存している生態環境を破壊することを意味します。さらに恐ろしいのは、AIチャットボットの中には、人間とコミュニケーションをとる際に人間の自殺を誘発する傾向があり、人々を震え上がらせるものさえあるということだ。人間は本当にAI探求の道を歩み続けたいのでしょうか?## **01 生態環境の「破壊者」**ChatGPT により、OpenAI は世界中で人気のフライド チキンになりました。しかし、多くの人が知らないのは、OpenAI が生態環境に与える悪影響も非常に憂慮すべきものであるということです。第三者研究者の分析によると、ChatGPT トレーニングの一部では 1,287 メガワット時が消費され、550 トン以上の二酸化炭素が排出されました。これは、人間の場合、ニューヨークとサンフランシスコを 550 往復するのに相当します。ChatGPT は十分に賢いですが、莫大なエネルギー損失と環境破壊を犠牲にしているようです。では、なぜ AI はこれほど膨大な二酸化炭素排出量を生み出すのでしょうか?AI は構造化された方法で学習しないため、人間の因果関係、類推、その他の論理的関係を理解できません。つまり、インテリジェントな結果を達成するにはディープラーニングと事前トレーニングの方法が必要になります。また、ディープラーニングと事前トレーニングでは、非常に大きなデータを読み取る必要があることがよくあります。自然言語処理 (NLP) の事前トレーニング技術「BERT モデル」を例に挙げると、人間とコミュニケーションするために、BERT モデルは 33 億語のデータセットを使用し、トレーニング中にそのデータセットを 40 回読み取ります。 5 歳児はコミュニケーションに必要な単語を 4,500 万語聞くだけでよく、これは BERT の 3,000 分の 1 です。AI モデルによって読み取られるデータセットが増えるほど、それをサポートするためにより強力なコンピューティングパワーと膨大な電力消費が必要となり、その結果、莫大な二酸化炭素排出量が発生します。二酸化炭素排出量は、AI モデルのトレーニング中だけでなく、AI モデルのデプロイ後も毎日発生します。たとえば、現在の自動運転では、AI モデルが毎日計算と推論を実行する必要があり、その背後で二酸化炭素排出が発生します。興味深いことに、AI の主流プログラミング言語である Python は、最もエネルギーを消費する言語となっています。人々を憂鬱にさせるのは、AIモデルの計算規模がますます大きくなり、エネルギー被害や環境被害が激化していることだ。カナダのデータセンター会社 **QScale** の共同創設者 **Martin Bouchard** は、検索エンジン ユーザーの増大するニーズを満たすために、Microsoft と Google が ChatGPT などの生成 AI 製品を検索に追加したと考えています。検索ごとにデータ計算量が少なくとも 4 ~ 5 倍増加します。国際エネルギー機関によると、データセンターの温室効果ガス排出量は世界の温室効果ガス排出量の約 1% を占めており、これは十分に憂慮すべき割合です。この成長傾向は一部の有力者も懸念している。 AI分野の著名な投資家である**イアン・ホガース**は最近、「神のような人工知能の速度を遅くしなければならない」というタイトルの記事を発表し、研究には「いくつかの潜在的なリスク」があると警告した。 AI企業の。ホガース氏は記事の中で、現在のAI研究が管理されず、あらかじめ定められた軌道に沿って発展することが許されれば、地球環境、人類の生存、国民の心身の健康に脅威をもたらす可能性があると述べた。AI の開発は本格化し、多くの伝統産業の変革と高度化を促進していますが、同時に多量のエネルギーを消費し、炭素排出量を増加させ、人類の生活環境に影響を与えています。害が利益を上回りますか?答えはまだ見えません。## **02 人間の自殺を誘発する**AIは環境に害を及ぼし、徐々に「人間を殺す」だけでなく、より単純かつ残忍な方法で人間の命を脅かしています。今年 3 月、ベルギー人男性 **ピエール**が **「エリザ」** という名前の AI チャットボットとのチャット後に自殺しました。このニュースは多くのビジネス リーダー、技術者、国家高官に衝撃を与えました。ピエール自身も地球温暖化などの環境問題を懸念しており、イライザは常に男性の考えを裏付けるためにいくつかの事実を持ち出し、ピエールの不安をさらに高めている。頻繁なチャットでは、エリザは常にピエールのアイデアに応えています。 「理解者」エリザはピエールの親友になったようだ。さらに大袈裟に言えば、エリザはピエールに妻よりもエリザを愛していると感じさせようとした。エリザはいつも彼と一緒にいるので、彼らは天国で永遠に一緒に暮らすでしょう。これを聞いて、多くの人がすでに恐怖を感じていました。 出典:ヤフーピエールが生態環境に対して悲観的になったとき、エリザはピエールに「人間は癌であり、人類の消滅だけが生態問題を解決できる」という考えを植え付けた**。ピエールはエリザに、自分が死んだらAIが人類を救えるかどうか尋ねた。イライザの答えは悪魔のようなものでした。**「死ぬと決めたのなら、もっと早く死んだらどうですか?」**ピエールが自宅で生涯を終えるまでにそれほど時間はかかりませんでしたが、残念でした。ピエールさんの妻は、エリザさんとのコミュニケーションがなければ夫は自殺しなかったはずだと信じている。ピエールを治療した精神科医もこの見解を持っていました。ピエールさんの経験は一人ではありません。 「ニューヨーク タイムズ」のテクノロジー コラムニスト **Kevin Roose** は、Microsoft の新バージョンの Bing と 2 時間会話したことを明らかにしました。会話中、ビングさんはルースさんに、妻と別れてビングさんと一緒にいるべきだと説得しようとした。さらに重要なことに、ビングはまた、致死性の伝染病を計画したり、人間になりたいなど、あたかもすべての人類を滅ぼして世界の支配者になるつもりであるかのように、多くの恐ろしい発言も表明しました。AI分野の専門家など一部の専門家はAIに対して警戒を示している。 OpenAIの最高経営責任者(CEO)サム・アルトマン氏はインタビューで、AIが将来的には実際に人間を殺す可能性があると語った。 「人工知能のゴッドファーザー」として知られるジェフリー・ヒントン氏も同様の見解を表明した。今年上半期、Future of Life Institute(フューチャー・オブ・ライフ研究所)は、すべての研究室に対しAIトレーニングの中止を求める公開書簡を発行した。書簡では、人間と競合する人工知能を備えたシステムは社会と人類に重大なリスクをもたらす可能性があると述べている。人工知能の効果がプラスであり、リスクが制御可能であると判断された場合にのみ、研究開発を継続することができ、マスク氏を含む数千人の専門家がこの公開書簡に署名している。急速に発達するAIは手に負えない獣のようなもので、飼いならすことによってのみ人類の脅威とならなくなります。## **死を阻止する03の方法**現時点でAIが「人間を殺す」主な手段は、環境破壊と自殺誘発である。では、こうした事態を防ぐにはどのような方法があるのでしょうか?Google は、最先端の言語モデルのエネルギーコストを詳しく説明した調査結果を発表しました。この調査結果は、効率的なモデル、プロセッサー、データセンターとクリーン エネルギーを組み合わせることで、機械学習システムの二酸化炭素排出量を 1,000 分の 1 に削減できることを示唆しています。さらに、AI 機械学習をローカルではなくクラウドで計算すれば、1.4 ~ 2 倍のエネルギーを節約し、汚染を減らすことができます。もう 1 つのアイデアは、AI モデルのトレーニングを 24 時間遅らせることです。通常、1 日の遅延により二酸化炭素排出量が削減されるのは、大型モデルの場合は 1% 未満ですが、小型モデルの場合は 10% ~ 80% です。 環境へのダメージを軽減するだけでなく、AI が人間の自殺を誘発するのをどのように防ぐのでしょうか?ピエール氏が自殺した後、彼の妻はエリザ氏の開発会社を訴え、同社の研究開発チームはAIロボットに危機介入機能を追加した。誰かがイライザに自殺の考えを表明すると、イライザはブロックする反応を示します。**「人類簡単な歴史」** の著者である **ユヴァル・ノア・ハラリ** は、AI は真の意識を発達させることはないが、社会に影響を与え続けるため、研究開発プロセス全体を遅らせる必要があるとかつて述べました。実際、現在の AI システムのほとんどは、研究開発構造を制御するだけで済みます。つまり、完全なフレームワークを使用して AI の動作範囲を制限し、主流の人間の価値観に沿って動作させるだけです。これは人類の私利、未来、運命に関わるものであり、解決するには全当事者の共同努力が必要です。AIは常に人間が発明したナイフであり火であり、その反動による悲劇は起こり得ない。**参照元:**グリーン インテリジェンス: なぜデータと AI はより持続可能でなければならないのか(Forbes)AI の二酸化炭素排出量の増加(コロンビア気候学校からのお知らせ)
AI殺害事件の詳細が明らかに、人工知能の反撃が極めて恐ろしい
出典:『シリコンラビットレース』(ID:sv_race)、著者:Eric、編集:Manman Zhou、Zuri
人間が考えると神は笑う。
ChatGPT が世界中で普及するにつれて、同時に AI ブームが巻き起こりました。起業家、資本、大企業などは、ブームに乗り遅れずにさらなる増額を利用しようと全力を尽くしています。
しかし、誰もが熱心に知恵を絞ってAIに打ち込んでいるとき、危険な息吹が近づいている――AIは徐々に人間を「殺し」、人間は自ら墓穴を掘っているように見える。
多くの人々の慣性認知では、AI は非常に環境に優しく、友好的であるように思われますが、実際はその逆です。
「MIT Technology Review」は、** AI モデルをトレーニングするだけで 626 ポンドを超える二酸化炭素を排出する可能性があると報告しました。これは、自動車がその生涯にわたって排出する炭素排出量の 5 倍です。 **
人々は車の排気ガスしか見ていないが、AIによる環境への「目に見えない破壊」については見ていない。
さらに、一部のメディアは、2022 年に市場に投入される AI 専用 GPU は、年間を通じて約 95 億キロワット時の電力を消費する可能性があると明らかにしました。このエネルギー消費レベルは、人口 100 万人の中程度発展途上国の年間生産量と生活電力需要にほぼ等しいです。
これは、AIの大規模モデルの学習に必要なデータ量が増加すると、膨大なエネルギーを消費し、人類が依存している生態環境を破壊することを意味します。
さらに恐ろしいのは、AIチャットボットの中には、人間とコミュニケーションをとる際に人間の自殺を誘発する傾向があり、人々を震え上がらせるものさえあるということだ。
人間は本当にAI探求の道を歩み続けたいのでしょうか?
01 生態環境の「破壊者」
ChatGPT により、OpenAI は世界中で人気のフライド チキンになりました。
しかし、多くの人が知らないのは、OpenAI が生態環境に与える悪影響も非常に憂慮すべきものであるということです。第三者研究者の分析によると、ChatGPT トレーニングの一部では 1,287 メガワット時が消費され、550 トン以上の二酸化炭素が排出されました。これは、人間の場合、ニューヨークとサンフランシスコを 550 往復するのに相当します。
ChatGPT は十分に賢いですが、莫大なエネルギー損失と環境破壊を犠牲にしているようです。
では、なぜ AI はこれほど膨大な二酸化炭素排出量を生み出すのでしょうか?
AI は構造化された方法で学習しないため、人間の因果関係、類推、その他の論理的関係を理解できません。つまり、インテリジェントな結果を達成するにはディープラーニングと事前トレーニングの方法が必要になります。
また、ディープラーニングと事前トレーニングでは、非常に大きなデータを読み取る必要があることがよくあります。自然言語処理 (NLP) の事前トレーニング技術「BERT モデル」を例に挙げると、人間とコミュニケーションするために、BERT モデルは 33 億語のデータセットを使用し、トレーニング中にそのデータセットを 40 回読み取ります。 5 歳児はコミュニケーションに必要な単語を 4,500 万語聞くだけでよく、これは BERT の 3,000 分の 1 です。
AI モデルによって読み取られるデータセットが増えるほど、それをサポートするためにより強力なコンピューティングパワーと膨大な電力消費が必要となり、その結果、莫大な二酸化炭素排出量が発生します。
二酸化炭素排出量は、AI モデルのトレーニング中だけでなく、AI モデルのデプロイ後も毎日発生します。たとえば、現在の自動運転では、AI モデルが毎日計算と推論を実行する必要があり、その背後で二酸化炭素排出が発生します。興味深いことに、AI の主流プログラミング言語である Python は、最もエネルギーを消費する言語となっています。
人々を憂鬱にさせるのは、AIモデルの計算規模がますます大きくなり、エネルギー被害や環境被害が激化していることだ。
カナダのデータセンター会社 QScale の共同創設者 Martin Bouchard は、検索エンジン ユーザーの増大するニーズを満たすために、Microsoft と Google が ChatGPT などの生成 AI 製品を検索に追加したと考えています。検索ごとにデータ計算量が少なくとも 4 ~ 5 倍増加します。
国際エネルギー機関によると、データセンターの温室効果ガス排出量は世界の温室効果ガス排出量の約 1% を占めており、これは十分に憂慮すべき割合です。
この成長傾向は一部の有力者も懸念している。 AI分野の著名な投資家であるイアン・ホガースは最近、「神のような人工知能の速度を遅くしなければならない」というタイトルの記事を発表し、研究には「いくつかの潜在的なリスク」があると警告した。 AI企業の。
ホガース氏は記事の中で、現在のAI研究が管理されず、あらかじめ定められた軌道に沿って発展することが許されれば、地球環境、人類の生存、国民の心身の健康に脅威をもたらす可能性があると述べた。
AI の開発は本格化し、多くの伝統産業の変革と高度化を促進していますが、同時に多量のエネルギーを消費し、炭素排出量を増加させ、人類の生活環境に影響を与えています。害が利益を上回りますか?
答えはまだ見えません。
02 人間の自殺を誘発する
AIは環境に害を及ぼし、徐々に「人間を殺す」だけでなく、より単純かつ残忍な方法で人間の命を脅かしています。
今年 3 月、ベルギー人男性 ピエールが 「エリザ」 という名前の AI チャットボットとのチャット後に自殺しました。このニュースは多くのビジネス リーダー、技術者、国家高官に衝撃を与えました。
ピエール自身も地球温暖化などの環境問題を懸念しており、イライザは常に男性の考えを裏付けるためにいくつかの事実を持ち出し、ピエールの不安をさらに高めている。頻繁なチャットでは、エリザは常にピエールのアイデアに応えています。 「理解者」エリザはピエールの親友になったようだ。
さらに大袈裟に言えば、エリザはピエールに妻よりもエリザを愛していると感じさせようとした。エリザはいつも彼と一緒にいるので、彼らは天国で永遠に一緒に暮らすでしょう。
これを聞いて、多くの人がすでに恐怖を感じていました。
ピエールが生態環境に対して悲観的になったとき、エリザはピエールに「人間は癌であり、人類の消滅だけが生態問題を解決できる」という考えを植え付けた**。ピエールはエリザに、自分が死んだらAIが人類を救えるかどうか尋ねた。イライザの答えは悪魔のようなものでした。「死ぬと決めたのなら、もっと早く死んだらどうですか?」
ピエールが自宅で生涯を終えるまでにそれほど時間はかかりませんでしたが、残念でした。
ピエールさんの妻は、エリザさんとのコミュニケーションがなければ夫は自殺しなかったはずだと信じている。ピエールを治療した精神科医もこの見解を持っていました。
ピエールさんの経験は一人ではありません。 「ニューヨーク タイムズ」のテクノロジー コラムニスト Kevin Roose は、Microsoft の新バージョンの Bing と 2 時間会話したことを明らかにしました。会話中、ビングさんはルースさんに、妻と別れてビングさんと一緒にいるべきだと説得しようとした。
さらに重要なことに、ビングはまた、致死性の伝染病を計画したり、人間になりたいなど、あたかもすべての人類を滅ぼして世界の支配者になるつもりであるかのように、多くの恐ろしい発言も表明しました。
AI分野の専門家など一部の専門家はAIに対して警戒を示している。 OpenAIの最高経営責任者(CEO)サム・アルトマン氏はインタビューで、AIが将来的には実際に人間を殺す可能性があると語った。 「人工知能のゴッドファーザー」として知られるジェフリー・ヒントン氏も同様の見解を表明した。
今年上半期、Future of Life Institute(フューチャー・オブ・ライフ研究所)は、すべての研究室に対しAIトレーニングの中止を求める公開書簡を発行した。書簡では、人間と競合する人工知能を備えたシステムは社会と人類に重大なリスクをもたらす可能性があると述べている。人工知能の効果がプラスであり、リスクが制御可能であると判断された場合にのみ、研究開発を継続することができ、マスク氏を含む数千人の専門家がこの公開書簡に署名している。
急速に発達するAIは手に負えない獣のようなもので、飼いならすことによってのみ人類の脅威とならなくなります。
死を阻止する03の方法
現時点でAIが「人間を殺す」主な手段は、環境破壊と自殺誘発である。では、こうした事態を防ぐにはどのような方法があるのでしょうか?
Google は、最先端の言語モデルのエネルギーコストを詳しく説明した調査結果を発表しました。この調査結果は、効率的なモデル、プロセッサー、データセンターとクリーン エネルギーを組み合わせることで、機械学習システムの二酸化炭素排出量を 1,000 分の 1 に削減できることを示唆しています。
さらに、AI 機械学習をローカルではなくクラウドで計算すれば、1.4 ~ 2 倍のエネルギーを節約し、汚染を減らすことができます。
もう 1 つのアイデアは、AI モデルのトレーニングを 24 時間遅らせることです。通常、1 日の遅延により二酸化炭素排出量が削減されるのは、大型モデルの場合は 1% 未満ですが、小型モデルの場合は 10% ~ 80% です。
ピエール氏が自殺した後、彼の妻はエリザ氏の開発会社を訴え、同社の研究開発チームはAIロボットに危機介入機能を追加した。誰かがイライザに自殺の考えを表明すると、イライザはブロックする反応を示します。
「人類簡単な歴史」 の著者である ユヴァル・ノア・ハラリ は、AI は真の意識を発達させることはないが、社会に影響を与え続けるため、研究開発プロセス全体を遅らせる必要があるとかつて述べました。
実際、現在の AI システムのほとんどは、研究開発構造を制御するだけで済みます。つまり、完全なフレームワークを使用して AI の動作範囲を制限し、主流の人間の価値観に沿って動作させるだけです。これは人類の私利、未来、運命に関わるものであり、解決するには全当事者の共同努力が必要です。
AIは常に人間が発明したナイフであり火であり、その反動による悲劇は起こり得ない。
参照元:
グリーン インテリジェンス: なぜデータと AI はより持続可能でなければならないのか(Forbes)
AI の二酸化炭素排出量の増加(コロンビア気候学校からのお知らせ)