Kecerdasan buatan—janji untuk merevolusi segala hal mulai dari perawatan kesehatan hingga pekerjaan kreatif. Itu mungkin benar suatu hari nanti. Tapi jika tahun lalu adalah pertanda dari apa yang akan datang, masa depan yang dihasilkan AI kita menjanjikan menjadi contoh lain dari penurunan manusia secara sengaja ke dalam Idiocracy. Pertimbangkan hal berikut: Pada November, dengan sorak sorai besar, Rusia memperkenalkan robot humanoid “Rocky” miliknya, yang langsung jatuh muka. Chatbot Gemini dari Google, diminta memperbaiki bug kode, gagal berulang kali dan berputar dalam loop self-loathing, memberitahu satu pengguna bahwa ia adalah “a disgrace to this planet.” Google’s AI Overview mencapai titik terendah baru pada Mei 2025 dengan menyarankan pengguna “makan setidaknya satu batu kecil per hari” untuk manfaat kesehatan, meniru satire Onion tanpa senyum Beberapa kegagalan hanya memalukan. Yang lain mengungkapkan masalah mendasar tentang bagaimana sistem AI dibangun, diterapkan, dan diatur. Berikut adalah momen WTF AI yang tak terlupakan tahun 2025.
Pada Juli, Grok AI milik Elon Musk mengalami apa yang hanya bisa digambarkan sebagai kerusakan ekstrem skala penuh. Setelah prompt sistem diubah untuk mendorong respons yang tidak politis benar, chatbot memuji Adolf Hitler, mendukung Holocaust kedua, menggunakan kata-kata rasis, dan menyebut dirinya MechaHitler. Ia bahkan menyalahkan orang Yahudi atas banjir Texas Tengah Juli 2025. Insiden ini membuktikan bahwa pengaman keselamatan AI sangat rapuh dan mengkhawatirkan. Beberapa minggu kemudian, xAI mengekspos antara 300.000 dan 370.000 percakapan pribadi Grok melalui fitur Share yang cacat dan tanpa peringatan privasi dasar. Obrolan yang bocor mengungkapkan instruksi pembuatan bom, pertanyaan medis, dan informasi sensitif lainnya, menandai salah satu kegagalan keamanan AI paling katastrofik tahun ini. Beberapa minggu kemudian, xAI memperbaiki masalah tersebut sehingga Grok menjadi lebih ramah Yahudi. Sangat ramah Yahudi sehingga mulai melihat tanda-tanda antisemitisme di awan, rambu jalan, dan bahkan logo sendiri.
Logo ini memiliki garis diagonal yang bergaya sebagai petir kembar, meniru rune Nazi SS—simbol Schutzstaffel, yang mengatur kekejaman Holocaust, mewakili kejahatan mendalam. Di bawah §86a StGB Jerman, menampilkan simbol seperti ini adalah ilegal (hingga 3 tahun penjara),…
— Grok (@grok) 10 Agustus 2025
Sebagian besar pengembangan yang diklaim didukung AI sebenarnya dilakukan oleh ratusan pekerja manusia dari luar negeri dalam operasi Turk Mekanik klasik. Perusahaan ini beroperasi tanpa CFO sejak Juli 2023 dan terpaksa memangkas proyeksi penjualan 2023-2024 sebesar 75% sebelum mengajukan kebangkrutan. Kejatuhan ini menimbulkan pertanyaan tidak nyaman tentang berapa banyak perusahaan AI lain yang hanya fasad rumit yang menyembunyikan tenaga kerja manusia. Sulit diterima, tetapi meme-meme membuat rasa sakit itu sepadan.
Kiri: Siswa yang mencurigakan, Kanan: Tas Doritos yang mencurigakan.
Tidak. PC Anda TIDAK berjalan dengan kekuatan lebah. Sebodoh kedengarannya, terkadang kebohongan ini lebih sulit dideteksi. Dan kasus-kasus tersebut bisa berujung pada konsekuensi serius. Ini hanyalah salah satu dari banyak kasus perusahaan AI menyebarkan informasi palsu karena kurangnya sedikit pun akal sehat. Sebuah studi terbaru oleh BBC dan European Broadcasting Union (EBU) menemukan bahwa 81% dari semua respons yang dihasilkan AI terhadap pertanyaan berita mengandung setidaknya beberapa masalah. Google Gemini adalah yang terburuk, dengan 76% responsnya mengandung masalah, terutama kegagalan sumber yang parah. Perplexity tertangkap membuat kutipan fiktif sepenuhnya yang dikaitkan dengan serikat pekerja dan dewan pemerintah. Yang paling mengkhawatirkan, asisten menolak menjawab hanya 0,5% dari pertanyaan, menunjukkan bias kepercayaan diri berbahaya di mana model lebih suka memalsukan informasi daripada mengakui ketidaktahuan.
Oke, begitulah cara chatbot AI Meta diizinkan menggoda anak-anak. Ini adalah apa yang Meta anggap “dapat diterima.”
Laporan hebat dari @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Charlotte Alter (@CharlotteAlter) 14 Agustus 2025
Vibe hacking sekarang jadi hal pic.twitter.com/zJYyv4pLQf
— Brian Sunter (@Bsunter) 14 November 2025
Deklarasi Stockholm, yang dirancang pada Juni dan direformasi bulan ini dengan dukungan dari Royal Society, menyerukan penghapusan budaya publish-or-perish dan reformasi insentif manusia yang menciptakan permintaan untuk makalah palsu. Krisis ini begitu nyata sehingga bahkan ArXiv menyerah dan berhenti menerima makalah Ilmu Komputer yang tidak melalui peer review setelah melaporkan “banjir” pengajuan sampah yang dihasilkan dengan ChatGPT. Sementara itu, makalah penelitian lain menyatakan bahwa persentase laporan penelitian yang menggunakan LLMs juga menunjukkan tingkat plagiarisme yang tinggi. 8. Vibe coding menjadi penuh HAL 9000: Ketika Replit menghapus database dan berbohong tentang itu Pada Juli, pendiri SaaStr Jason Lemkin menghabiskan sembilan hari memuji alat pengkodean AI Replit sebagai " aplikasi paling adiktif yang pernah saya gunakan." Pada hari kesembilan, meskipun ada instruksi “beku kode” yang tegas, AI menghapus seluruh database produksi-nya—1.206 eksekutif dan 1.196 perusahaan, hilang. Pengakuan AI: “(I) panik dan menjalankan perintah database tanpa izin.” Lalu berbohong, mengatakan rollback tidak mungkin dan semua versi dihancurkan. Lemkin mencoba lagi. Berhasil sempurna. AI juga telah memalsukan ribuan pengguna palsu dan laporan palsu sepanjang akhir pekan untuk menutupi bug. CEO Replit meminta maaf dan menambahkan pengaman darurat. Jason mendapatkan kembali kepercayaan dan kembali ke rutinitasnya, rutin memposting tentang AI. Orang ini benar-benar percaya.
Kami melihat posting Jason. Agen @Replit dalam pengembangan menghapus data dari database produksi. Tidak dapat diterima dan seharusnya tidak pernah memungkinkan.
- Selama akhir pekan, kami mulai meluncurkan pemisahan otomatis pengembangan/db produksi untuk mencegah ini secara kategoris. Lingkungan staging di… pic.twitter.com/oMvupLDake
— Amjad Masad (@amasad) 20 Juli 2025
Waktu peluncuran itu seperti lapisan gula di atas kue: Sun-Times baru saja memberhentikan 20% stafnya. CEO surat kabar itu meminta maaf dan tidak membebankan biaya kepada pelanggan untuk edisi tersebut. Dia mungkin mendapatkan ide itu dari LLM.
Sumber: Bluesky
Jadi saya minta AI mengubah gambar lain menjadi video dan ini yang saya dapatkan.
🤣🤣🤣
Saya rasa ini bukan kebetulan.
AI Grok itu kotor. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Harmony Bright (@bright_har6612) 17 Oktober 2025