Jangan Bilang ''Tolong'' dan ''Terima Kasih'' ke ChatGPT
Fitur baru GPT-4o(Unsplash/Solen Feyissa)
07:06
22 April 2025

Jangan Bilang ''Tolong'' dan ''Terima Kasih'' ke ChatGPT

- Sering mengucapkan "tolong" dan "terima kasih" saat memasukkan prompt di ChatGPT?

Banyak pengguna yang mengucapkan hal tersebut agar tampak "sopan" meskipun sedang berkomunikasi dengan chatbot kecerdasan buatan/artificial intelligence (AI).

Akan tetapi, mengucapkan "tolong" dan "terima kasih" saat menggunakan ChatGPt ternyata membebani perusahaan induknya, OpenAI.

Hal ini terungkap dari penjelasan CEO OpenAI, Sam Altman di media sosial X (dahulu Twitter).

Menurut Altman, ungkapan "terima kasih" dan "tolong" dari pengguna, membuat OpenAI harus membayar hingga jutaan dollar. Biaya ini terkait dengan konsumsi listrik yang diperlukan oleh chatbot tersebut.

Penjelasan Altman tersebut diunggah di X Twitter guna menjawab pertanyaan dari salah seorang warganet.

"Saya penasaran berapa banyak biaya listrik yang dihabiskan OpenAI karena orang-orang mengucapkan 'tolong' dan 'terima kasih' ke model AI mereka," tanya pengguna X Twitter dengan handle @tomieinlove

Alman lantas menjawab bahwa perusahaannya menghabiskan puluhan juta dollar dengan "baik".

"Puluhan juta dollar terpakai dengan baik. Anda tidak akan pernah tau," kata Altman lewat akun X-nya dengan handle @sama. Namun dia tak merinci berapa biaya yang terkuras sebenarnya.

Jawaban Altman menyiratkan bahwa OpenAI tidak begitu keberatan dengan "beban" akibat kesopanan yang diberikan penggunanya.

Secara teknis, sebuah model AI termasuk model di balik ChatGPT, memang perlu dilatih untuk melakukan berbagai hal, termasuk mengenali gambar hingga memahami bahasa. 

Pelatihannya menggunakan kumpulan data besar dan hardware yang kuat termasuk (graphics processing unit/GPU), tensor processing unit (TPU), hingga chip bertenaga lainnya.

Selama proses pelatihan, termasuk ketika memproses setiap prompt yang dimasukkan pengguna, model AI mengonsumsi listrik yang besar.

Komponen penunjang AI juga menghasilkan panas yang signifikan selama pelatihan. Walhasil, diperlukan sistem pendingin seperti pendingin udara atau liquid, di mana sistem ini juga memerlukan listrik yang sama seperti komponen utama.

Untuk gambaran, pelatihan model AI seperti GPT milik OpenAI, membutuhkan ratusan hingga ribuan megawatt-hour.

GPT-3 misalnya, menggunakan listrik sekitar 1.287 megawatt-hour (MWh). Daya sebesar ini sebenarnya cukup untuk memberikan listrik ke 120 rumah di Amerika Serikat selama setahun, dihimpun KompasTekno dari The Economic Times, Senin (21/4/2025).

Menurut laporan Towards Data Science pada Agustus 2024 lalu, untuk melatih model AI GPT-4 selama 90-100 hari, dibutuhkan listrik hingga sekitar 62.000 MWh. Ini setara dengan konsumsi energi dari 1.000 rumah tangga AS pada umumnya selama 5 hingga 6 tahun.

Berapa listrik yang dibutuhkan model AI GPT-4?

Chatbot AI populer seperti ChatGPT dan Microsoft Copilot ditopang oleh model bahasa besar (large language model/LLM) bernama "GPT-4".

Kecanggihan GPT-4 dimungkinkan karena model AI ini dilatih menggunakan sekitar 25.000 GPU Nvidia A100 selama 90-100 hari. Biaya pelatihan model ini dilaporkan mencapai 100 juta dollar AS.

Mari kita lihat rincian hitung-hitungan estimasi konsumsi listrik yang dibutuhan untuk melatih GPT-4 berdasarkan laporan Towards Data Science.

Kita asumsikan GPU dipasang di server Nvidia HGX yang masing-masing dapat menampung 8 GPU. Berarti, GPT-4 membutuhkan 25.000/8 = 3.125 server.

Salah satu cara untuk memperkirakan konsumsi listrik dari informasi ini adalah dengan mempertimbangkan daya desain termal (TDP) server Nvidia HGX.

TDP, yang dilambangkan dalam watt, menyatakan konsumsi daya perangkat keras di bawah beban teoritis maksimum. Konsumsi daya aktual mungkin berbeda.

Nvidia tidak mengungkapkan informasi ini, jadi mari kita gunakan TDP dari server Nvidia DGX yang serupa, yaitu 6,5 kW. Jadi, jika server Nvidia DGX berjalan dengan daya penuh selama 1 jam, server tersebut akan mengonsumsi 6,5 KWh, berdasarkan perhitungan TDP.

Seperti disebut sebelumnya, model AI GPT-4 disebut membutuhkan diperlukan waktu 90–100 hari untuk melatih GPT-4. Itu berarti 90 x 24 jam= 2.160 jam per server atau 100 x 24 jam = 2.400 jam per server.

Jika kita berasumsi server beroperasi dengan daya penuh secara konstan, kita dapat mengalikan jumlah jam dengan 6,5 KWh. Dari situ, kita memperoleh bahwa selama pelatihan, setiap server mungkin telah mengonsumsi listrik sebesar 14.040 KWh hingga 15.600 KWh.

Karena butuh 3.125 server, maka 3.125 x 14.040 KWh = 43.875.000 KWh atau 3.125 x 15.600 = 48.750.000 KWh.

Saat menghitung konsumsi energi perangkat keras komputer, biasanya konsumsi energi perangkat keras dikalikan dengan apa yang disebut efektivitas penggunaan daya (PUE) pusat data, tempat perangkat keras tersebut beroperasi.

PUE adalah rasio yang menggambarkan seberapa efisien pusat data komputer menggunakan energi.

GPT-4 kemungkinan besar dilatih di pusat data Microsoft Azure, mengingat adanya kemitraan antara OpenAI dengan Microsoft. Pusat data Microsoft Azure memiliki PUE rata-rata 1,18. Perlu dicatat bahwa ini dapat bervariasi di antara pusat data.

Jadi, jika mengalikan konsumsi listrik perangkat keras sebesar 43.875.000 hingga 48.750.000 KWh dengan 1,18, maka didapatkan hasil 51.772.500 KWh dan 57.525.000 KWh.

Jadi, estimasi konsumsi listrik untuk melatih GPT-4 selama 90-100 hari adalah antara 51.772 MWh dan 57.525 MWh. Ini setara dengan konsumsi energi selama 5 hingga 6 tahun dari 1.000 rumah tangga AS pada umumnya.

Angka tersebut 40 kali lebih tinggi dari estimasi konsumsi listrik yang dikonsumsi pendahulunya, GPT-3, sebagaimana dihimpun KompasTekno dari Towards Data Center, Selasa (22/4/2025).

Tag:  #jangan #bilang #tolong #terima #kasih #chatgpt

KOMENTAR