BERITA TERKINI
Satya Nadella Sebut Pasokan Listrik Jadi Tantangan Terbesar di Era AI

Satya Nadella Sebut Pasokan Listrik Jadi Tantangan Terbesar di Era AI

CEO Microsoft Satya Nadella menilai tantangan terbesar di tengah pesatnya tren kecerdasan buatan (artificial intelligence/AI) bukan terletak pada ketersediaan chip, melainkan pada pasokan energi listrik. Menurut Nadella, kebutuhan daya yang terus meningkat membuat listrik menjadi faktor penentu dalam pengembangan dan pengoperasian infrastruktur AI.

Pandangan itu disampaikan Nadella dalam sebuah podcast bersama CEO OpenAI Sam Altman yang ditayangkan di kanal YouTube Bg2 Pod. Dalam perbincangan tersebut, Nadella menjelaskan bahwa dari sisi perangkat keras pendukung AI—termasuk chip—kapasitasnya dinilai mampu mengakomodasi kebutuhan, bahkan disebut sudah melampaui kemampuan yang dapat didukung pusat data (data center).

Namun, Nadella menilai “mata rantai penting yang hilang” justru ada pada pasokan listrik. Keterbatasan daya membuat pemasangan chip AI dan komponen lain di data center menjadi terhambat, meski perangkatnya tersedia. “Anda mungkin punya banyak chip yang tersimpan di inventaris karena tidak bisa saya pasang. Inilah masalahnya. Bukan soal pasokan chip, tetapi saya tidak punya ‘warm shell’ untuk memasangnya,” kata Nadella.

Istilah “warm shell” yang dimaksud Nadella merujuk pada fasilitas data center yang sudah siap digunakan, termasuk memiliki infrastruktur penting seperti pasokan listrik dan sistem pendingin yang memadai. Tanpa dukungan itu, chip AI yang tersedia tidak bisa segera dioperasikan.

Secara umum, pusat data modern yang mendukung model AI skala besar dapat memerlukan daya setara kebutuhan listrik sebuah kota kecil. Sejumlah hyperscale data center yang sedang dibangun bahkan diperkirakan mengonsumsi listrik hingga 20 kali lebih besar dibanding fasilitas sejenis yang sudah ada. Masing-masing fasilitas tersebut diproyeksikan membutuhkan hingga 2 gigawatt, setara dengan daya listrik yang dipakai beberapa negara bagian di Amerika Serikat.

Perkiraan konsumsi listrik juga menunjukkan tren peningkatan. Pada 2024, data center di Amerika Serikat diperkirakan mengonsumsi 183 terawatt per jam, atau lebih dari 4 persen penggunaan listrik nasional. Angka itu ditaksir naik dua kali lipat pada 2030. Sementara pada 2028, tugas-tugas khusus AI saja diperkirakan menghabiskan listrik yang setara dengan 22 persen konsumsi rumah tangga di AS.

Tantangan pasokan listrik ini turut dihadapi operator data center yang harus memastikan ketersediaan “warm shell” sebelum sumber daya komputasi baru dapat dijalankan. Dalam kondisi tertentu, penyedia cloud dan perusahaan AI dinilai membiarkan server menganggur selama berbulan-bulan sambil menunggu kendala listrik di suatu wilayah teratasi.

Dalam diskusi yang sama, OpenAI disebut menyerukan investasi pada pembangkit listrik baru untuk mendukung perkembangan AI. Sam Altman juga menilai investasi China dalam pembangkit listrik tenaga air dan nuklir dapat membantu meningkatkan skala infrastruktur AI. Ia memperingatkan kapasitas Amerika Serikat saat ini dinilai tertinggal dari kebutuhan listrik AI di masa mendatang.

Di sisi lain, berkembang spekulasi bahwa perangkat keras untuk konsumen kelak dapat menjalankan model AI canggih seperti GPT-5 atau GPT-6 secara lokal dengan daya yang sangat rendah, dengan dukungan teknologi semikonduktor mutakhir. Jika skenario tersebut terwujud, kebutuhan terhadap data center terpusat berpotensi berkurang.