Berdasarkan pemantauan 1M AI News, OpenAI co-founder Greg Brockman dalam sebuah wawancara meninjau kembali peningkatan kemampuan pemrograman AI yang melonjak pada Desember 2025. Ia menggunakan satu prompt pengujian yang sudah ia simpan selama bertahun-tahun untuk mengukur progres: meminta AI membangun sebuah situs web yang saat itu ia pelajari pemrograman butuh waktu beberapa bulan untuk menyelesaikannya. Sepanjang tahun 2025, tugas ini membutuhkan beberapa putaran prompt dan sekitar empat jam agar bisa selesai dengan baik; pada bulan Desember, tugas itu selesai hanya dengan satu prompt, dan kualitasnya pun sangat baik. Ia mengatakan model baru membuat AI “mampu menyelesaikan sekitar 20% tugas” menjadi “sekitar 80%”, dan lompatan ini memaksa semua orang untuk “harus menyusun ulang alur kerja di sekitar AI”.
Mengenai ke mana perginya pendanaan sebesar 11 miliar dolar, Brockman mengibaratkan komputasi seperti “merekrut tenaga penjualan”: selama produk memiliki saluran penjualan yang bisa diskalakan, merekrut lebih banyak tenaga penjualan akan menghasilkan lebih banyak pendapatan. Komputasi bukanlah pusat biaya, melainkan pusat pendapatan. Ia mengingat percakapan dengan tim menjelang peluncuran ChatGPT: “Mereka bertanya, ‘berapa banyak komputasi yang harus kami beli?’ Saya bilang, ‘semua.’ Mereka bilang, ‘bukan, serius, berapa yang harus kami beli?’ Saya bilang, ‘apa pun cara kami membangunnya, kami tidak akan bisa mengejar permintaan.’” Penilaian itu masih berlaku hingga hari ini, dan pengadaan komputasi perlu dikunci 18 sampai 24 bulan sebelumnya.
Dalam hal bagaimana menggunakan komputasi tersebut, Brockman mengungkapkan bahwa OpenAI tidak lagi semata-mata mengejar skala terbesar untuk pelatihan pra (pretraining), melainkan menjadikan kemampuan pretraining dan biaya inferensi sebagai tujuan optimasi bersama: “Anda tidak harus melakukan sedemikian besarnya, karena Anda juga perlu mempertimbangkan berbagai skenario penggunaan inferensi dalam hilir; yang sebenarnya Anda inginkan adalah solusi optimal antara kecerdasan dan biaya.” Namun ia secara tegas menolak anggapan bahwa “pretraining tidak lagi penting”. Ia berpendapat semakin cerdas model dasar, semakin tinggi efisiensi pada tahap pembelajaran penguatan dan inferensi berikutnya, sehingga “tetap sepenuhnya” membutuhkan GPU Nvidia untuk mendukung pelatihan terpusat skala besar.