開發AI排放的二氧化碳 竟比一台車高5倍!

麻省大學阿默斯特分校研究指出,開發人工智慧(AI)是個高排碳的過程

  1566
(圖/ pixabay)

(圖/ pixabay)

(台灣英文新聞/高梓根 綜合外電報導)開發人工智慧(AI)是個高耗能的過程。新的研究指出,訓練一個AI的碳足跡相當於排放284噸的二氧化碳,是一台車從生產到報廢的碳足跡總和的5倍。

麻省大學阿默斯特分校(University of Massachusetts Amherst)的艾瑪斯特貝爾(Emma Strubell)所率領的研究團隊,近日發表一篇研究論文,探究訓練人工神經網路(neural network)所需消耗的能源總量。

人工神經網路是一種透過大量樣本數據以及深度學習(deep learning)來完成作業的AI技術,常被應用來學習諸如人類語言等複雜的事物。該研究團隊選用4種人工神經網路作為研究對象,分別是Transformer、ELMo、BERT、GPT-2。其中,Transformer即是「Google翻譯」中所使用的AI。

研究團隊提供每種AI各一個GPU(圖形處理器)及一天的時間,並測量所消耗的電力。接著,研究團隊再根據每個AI原設計者提供的訓練所需日數,以及採用美國發電的平均碳排放量,計算出各個AI到從訓練開始到完成的碳足跡。

研究的結論指出,越是要求精度的AI,就需要消耗越多的電力來訓練,換言之對環境的負荷就越大。

有一種稱為神經網路架構搜索(neural architecture search, NAS)的技術,可透過試行錯誤來自動化設計神經網路的過程,且通常可以產出比人工設計的AI表現更好的架構。然而,斯特貝爾指出,正常訓練Transformer需耗時84小時,但若是透過NAS技術則需要27萬小時,並產生284噸的碳足跡,相當於一台車從製造到報廢的碳足跡總和(平均57噸)的5倍。

即使不使用NAS,一樣會產生相當高的碳排。例如,訓練BERT也會產生0.63噸的碳足跡,相當於飛機從紐約飛往舊金山來回一趟的排放量。

斯特貝爾更指出,實際開發AI的情況下,經常是從零開始設計架構,或是給予AI全新的樣本數據作學習,而非微調既有的AI,有可能會產生比團隊計算出來的結果還要來得高的碳排放。

斯特貝爾痛批「不計代價追逐丁點提升」的AI開發方式是「研究者對環境的不負責任」。

斯特貝爾的研究結果,將於七月於義大利佛羅倫斯舉行的年度國際計算機語言學會(Association for Computer Linguistics, ACL)會議上發表。