Profesor Ethan Mollick dari Wharton School of Business: Gunakan pemikiran “desain organisasi” untuk mengatasi masalah halusinasi AI

ChainNewsAbmedia

AI halusinasi (hallucination) hingga kini masih menjadi salah satu masalah paling menyebalkan bagi model bahasa besar (LLM), tetapi profesor Wharton School, Ethan Mollick, di X mengemukakan sebuah pandangan yang menarik: manusia selama ratusan tahun sudah mengembangkan mekanisme yang matang, yang mampu menghasilkan keluaran yang dapat diandalkan dari sumber yang tidak dapat diandalkan—mekanisme itu disebut “struktur organisasi” (organizational structures), dan kita benar-benar dapat menerapkan metode serupa pada AI. Cuitan ini memperoleh 329 suka, 35 kali repost, dan 44 balasan, memicu diskusi mendalam tentang cara menanggapi AI halusinasi secara pragmatis.

Apa itu analogi “struktur organisasi”?

Poin inti Mollick langsung menyoroti sebuah fakta yang sering diabaikan: manusia tidak pernah menjadi sumber informasi yang sempurna dan dapat diandalkan. Dalam sejarah, apa pun itu—pencatatan akuntansi, diagnosis medis, atau putusan hukum—keluaran manusia selalu memiliki risiko kesalahan. Namun, peradaban bisa berjalan normal karena kami telah mengembangkan serangkaian “struktur organisasi” untuk mengendalikan risiko-risiko tersebut.

Pada dasarnya, struktur-struktur ini adalah serangkaian “mesin penangkap kesalahan” yang presisi: melalui pembagian kerja, pemeriksaan berlapis, verifikasi silang, dan proses yang dilembagakan, ketidakandalan individu diubah menjadi keandalan pada level sistem. Mollick berpendapat bahwa daripada terpaku pada mengejar “AI yang tidak pernah salah”, lebih baik kita mengganti sudut pandang—seperti halnya kita memperlakukan karyawan manusia, kita membangun sistem pengendalian kualitas yang terorganisasi untuk AI.

Cara penerapan yang spesifik: peninjauan, pengujian, dan verifikasi silang

Dalam diskusi lanjutan yang dipicu oleh cuitan tersebut, Mollick dan peserta lainnya membahas beberapa metode spesifik yang bisa langsung dicontoh dari manajemen organisasi. Pertama adalah “mekanisme peninjauan” (reviews), seperti audit manajer di perusahaan atau peninjauan sejawat, yang membuat model AI lain atau ahli manusia melakukan pemeriksaan sistematis atas keluaran LLM.

Kedua adalah “mekanisme pengujian” (tests), mirip dengan unit test dan proses jaminan kualitas dalam pengembangan perangkat lunak, yang menetapkan standar yang dapat diverifikasi untuk setiap keluaran AI. Ketiga adalah “verifikasi silang” (cross-checks), yaitu membuat beberapa model AI independen atau sumber informasi memberikan jawaban untuk pertanyaan yang sama, lalu membandingkan konsistensi hasil—seperti mekanisme saling mengimbangi antar departemen dalam sebuah organisasi.

Logika bersama dari metode-metode ini adalah: tidak bergantung pada kesempurnaan satu simpul, melainkan menurunkan tingkat kesalahan keseluruhan melalui desain sistem. Ini sejalan dengan konsep “model Swiss Cheese” (Swiss Cheese Model) dalam teori manajemen kualitas modern—setiap lapisan perlindungan punya celah, tetapi setelah banyak lapisan ditumpuk, peluang kesalahan menembus seluruh tingkatan secara drastis menurun.

Wawasan untuk penerapan AI di perusahaan

Kerangka pemikiran Mollick ini sangat menginspirasi bagi perusahaan yang sedang mengadopsi AI. Banyak perusahaan saat menghadapi masalah AI halusinasi, sering terjebak pada dua ekstrem: atau karena takut salah sehingga sama sekali tidak berani menggunakan AI, atau terlalu percaya pada keluaran AI lalu mengabaikan verifikasi. Pemikiran tentang desain organisasi menawarkan jalan tengah—mengakui bahwa AI bisa melakukan kesalahan, tetapi mengendalikan kesalahan tersebut dalam batas yang dapat diterima melalui desain kelembagaan.

Secara spesifik, perusahaan dapat membangun “proses manajemen kualitas AI”: menganggap AI sebagai salah satu “karyawan” dalam organisasi, memberinya mekanisme peninjauan, menetapkan batas tanggung jawab yang jelas, membangun sistem deteksi anomali, dan mempertahankan peninjauan oleh manusia pada tahap keputusan penting. Pendekatan ini tidak hanya lebih pragmatis, tetapi juga lebih sesuai dengan logika manajemen yang sudah familiar bagi perusahaan. Bagi industri AI, pandangan Mollick mengingatkan kita bahwa jawaban untuk mengatasi AI halusinasi, mungkin tidak hanya berada pada level teknis, tetapi juga pada perlunya memikirkan ulang struktur organisasi kolaborasi manusia dan AI.

Artikel ini Profesor Wharton Ethan Mollick: menggunakan pemikiran “desain organisasi” untuk menyelesaikan masalah AI halusinasi pertama kali muncul di Jaringan Berita ABMedia.

Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.
Komentar
0/400
Tidak ada komentar