INSPIRASI NUSANTARA—Penggunaan frasa sopan seperti “tolong” dan “terima kasih” dalam interaksi dengan ChatGPT berkontribusi pada meningkatnya konsumsi energi dan biaya operasional sistem kecerdasan buatan. Setiap kata tambahan dalam perintah pengguna memperbesar beban pemrosesan pada model bahasa besar atau large language model (LLM) yang dijalankan di pusat data.
CEO OpenAI Sam Altman mengakui bahwa penggunaan bahasa sopan berdampak langsung pada biaya listrik perusahaan. Menanggapi pertanyaan pengguna terkait efisiensi energi, Altman menyatakan bahwa tambahan kata dalam interaksi pengguna menyebabkan biaya energi mencapai “puluhan juta dolar”, meskipun ia tidak merinci angka pastinya. Pernyataan tersebut menegaskan bahwa konsumsi energi AI tidak hanya dipengaruhi oleh kompleksitas tugas, tetapi juga oleh panjang input pengguna.
Secara teknis, setiap kata dalam prompt diurai menjadi token yang kemudian diproses melalui sejumlah tahap komputasi. Semakin banyak token yang diproses, semakin besar daya komputasi yang dibutuhkan. Proses ini dijalankan pada perangkat keras berdaya tinggi, seperti GPU, yang beroperasi di pusat data dengan kebutuhan listrik besar dan sistem pendinginan intensif.
Skala penggunaan menjadi faktor kunci dalam membesarnya dampak energi tersebut. ChatGPT dan model serupa digunakan oleh ratusan juta pengguna aktif setiap pekan. Dalam kondisi ini, tambahan beban komputasi yang kecil pada satu interaksi berubah menjadi signifikan ketika dikalikan dengan miliaran permintaan setiap hari. Sejumlah laporan menunjukkan bahwa satu kali interaksi dengan LLM dapat mengonsumsi energi lebih besar dibandingkan pencarian internet konvensional.
Dari sisi ekonomi, tingginya kebutuhan listrik berdampak langsung pada biaya operasional penyedia layanan AI. Konsumsi energi menjadi salah satu komponen pengeluaran terbesar dalam pengelolaan pusat data global. Situasi ini menjadikan efisiensi energi sebagai isu strategis, tidak hanya bagi perusahaan teknologi, tetapi juga dalam diskusi keberlanjutan teknologi digital secara lebih luas.
Dampak lingkungan turut menjadi perhatian. Konsumsi listrik pusat data berkontribusi terhadap jejak karbon teknologi AI, terutama di wilayah yang masih bergantung pada energi berbasis fosil. Para pakar menilai bahwa jejak karbon AI perlu dihitung tidak hanya dari proses pelatihan model, tetapi juga dari operasional harian yang berlangsung tanpa henti.
Diskusi mengenai hubungan antara bahasa pengguna, konsumsi energi, dan keberlanjutan AI mencuat seiring lonjakan penggunaan teknologi ini dalam beberapa tahun terakhir. Sejak 2024 hingga 2025, pernyataan dari pelaku industri memperlihatkan meningkatnya perhatian terhadap efisiensi energi dalam pengembangan dan pengoperasian sistem AI.
Ke depan, pakar teknologi menilai bahwa pengurangan dampak energi tidak cukup hanya mengandalkan perubahan perilaku pengguna. Upaya tersebut perlu dibarengi dengan inovasi pada desain model, optimalisasi algoritme, serta pengembangan infrastruktur pusat data yang lebih efisien agar kualitas layanan tetap terjaga tanpa meningkatkan beban lingkungan.(eva/IN)