Генеральный директор Amazon Web Services Мэтт Гарман считает, что для обучения больших языковых моделей (LLM) через два-три поколения потребуется столько же энергии, сколько для большого города. Согласно цитате из интервью WSJ, опубликованной The Transcript на сайте X (бывший Twitter), Гарман считает, что для завершения обучения одной модели может потребоваться от одного до пяти гигаватт, и что AWS инвестирует в энергетические проекты, которые могут помочь... Читать далее
141871