top of page

ChatGPTのトレーニングに25トンのCO2 #AIの功罪 / 数万個の「銃弾」が飛び交う宇宙 #イーロン・マスクが半分を所有

更新日:2024年5月24日

最初に出たChatGPTのような大規模言語モデル(LLM)のトレーニングには、30軒の一般家庭で1年に使う電気量(25トンの二酸化炭素)を必要とする。

GPT3の水準にまでなると、二酸化炭素の排出量は20倍に達する。


ree

 

LLMは過去5年で2000倍の大きさに膨れ上がり、機能も格段に向上したが、小規模言語モデル(SLM)からLLMへ変換をすれば、同等のタスクであっても14倍の二酸化炭素を排出することになる。

 

 


不要になったロケットやネジをはじめとする無数の宇宙ゴミが銃弾の何倍もの速さで空を飛び続けている。


ree

宇宙航空力学(アストロダイナミクス)の専門家が追跡している軌道上の人工物体は全部で5万個に及ぶ。

 

その内、4万5000個の宇宙ゴミがISSや衛星を危険に晒している傍ら、稼働中の人工物体はわずか5000個。

半分に当たる2500個を所有しているイーロン・マスクは、今でも毎週12個以上のペースで衛星を飛ばしている。

 


 

Note-Worthyはメモ書き形式のブログです。

本投稿は英語コンテンツ(ポッドキャストなど)の耳寄り情報を抽出する無料メルマガEEから一部抜粋。


 
 
bottom of page