OpenAI, perusahaan di balik ChatGPT, mengumumkan terobosan model bahasa besar (large language model/LLM) eksperimental yang jauh lebih mudah dipahami dibandingkan model konvensional1. Pengembangan ini dilakukan November 2025 oleh tim yang dipimpin Leo Gao, ilmuwan riset OpenAI, untuk menjawab tantangan transparansi AI.
Model baru bernama weight-sparse transformer ini dirancang khusus mengatasi masalah utama LLM modern: sifat "kotak hitam" yang membuat mekanisme internal sulit dipahami. "Seiring sistem AI semakin kuat, mereka akan terintegrasi lebih banyak ke domain sangat penting," ungkap Gao dalam wawancara eksklusif dengan MIT Technology Review2. Keamanan menjadi prioritas utama pengembangan.
Mengapa Model AI Sulit Dipahami
LLM dibangun dari jaringan neural (neural networks) yang terdiri dari node bernama neuron, tersusun berlapis-lapis. Pada jaringan padat (dense network), setiap neuron terhubung ke semua neuron di lapisan berdekatan3. Efisien untuk pelatihan, tapi hasilnya? Konsep sederhana terpecah-pecah di berbagai bagian model.
Fenomena superposition (istilah dari fisika kuantum) membuat neuron tunggal mewakili beragam fitur sekaligus. "Jaringan neural besar, rumit, kusut, sangat sulit dipahami," kata Dan Mossing, pemimpin tim mechanistic interpretability OpenAI4. Tim memutuskan mengubah pendekatan fundamental.
Pendekatan Jaringan Jarang
Berbeda dari jaringan padat, weight-sparse transformer menghubungkan setiap neuron hanya dengan beberapa neuron lain. Pembatasan ini memaksa model merepresentasikan fitur dalam kluster terlokalisasi, bukan tersebar. Memang lebih lambat dari LLM komersial. Tapi transparansinya? "Ada perbedaan sangat drastis dalam seberapa dapat diinterpretasi modelnya," ujar Gao5.
Model eksperimental ini sebanding dengan GPT-1 yang dikembangkan OpenAI tahun 2018—jauh lebih kecil dan kurang mampu dibanding GPT-5, Claude dari Anthropic, atau Gemini dari Google DeepMind. Namun tujuannya bukan bersaing dengan kelas terbaik, melainkan mempelajari mekanisme tersembunyi dalam versi lebih besar.
Uji Coba dan Temuan Menarik
Tim menguji model dengan tugas sangat sederhana: melengkapi blok teks yang dimulai tanda kutip dengan menambahkan tanda penutup di akhir6. Permintaan trivial untuk LLM mana pun. Poinnya? Mengurai bagaimana model menyelesaikan bahkan tugas langsung melibatkan membongkar kusut neuron dan koneksi kompleks.
| Aspek 🔍 | Dense Network 🕸️ | Weight-Sparse Transformer ✨ |
|---|---|---|
| Koneksi Neuron | Setiap neuron terhubung ke semua neuron lapisan berdekatan | Setiap neuron hanya terhubung beberapa neuron lain |
| Distribusi Fitur | Tersebar di seluruh model | Terlokalisasi dalam kluster |
| Kecepatan | Cepat dan efisien | Lebih lambat |
| Interpretabilitas | Sangat sulit dipahami | Drastis lebih mudah dipahami |
| Superposition | Terjadi (neuron mewakili banyak fitur) | Diminimalkan |
| Pelacakan Proses | Hampir tidak mungkin | Dapat diikuti langkah demi langkah |
| Penggunaan Saat Ini | Semua LLM komersial utama | Riset eksperimental |
Dengan model baru, mereka berhasil mengikuti langkah-langkah persis yang diambil model. "Kami benar-benar menemukan sirkuit yang tepat algoritma yang Anda pikirkan untuk diimplementasikan manual, tetapi sepenuhnya dipelajari oleh model," katanya7. "Saya pikir ini sangat keren dan menyenangkan."
Reaksi Komunitas Ilmiah
Elisenda Grigsby, matematikawan dari Boston College yang mempelajari cara kerja LLM (tidak terlibat dalam proyek), menyebut riset ini menarik. "Saya yakin metode yang diperkenalkan akan berdampak signifikan," komentarnya8. Lee Sharkey dari startup AI Goodfire setuju: "Pekerjaan ini membidik target tepat dan tampak dieksekusi dengan baik."
Interpretabilitas Mekanistik: Bidang Riset Baru
Karya OpenAI bagian dari bidang riset panas bernama mechanistic interpretability, berupaya memetakan mekanisme internal yang digunakan model saat melakukan tugas berbeda9. Lebih sulit dari kedengarannya. Hasil pembelajaran tersebar di simpul koneksi sangat luas—membuat konsep sederhana atau fungsi bisa terpecah antar neuron di bagian berbeda model.
- Model LLM modern seperti GPT-5, Claude, dan Gemini adalah "kotak hitam" yang tidak sepenuhnya dipahami cara kerjanya oleh siapapun, bahkan pembuatnya
- Transparansi diperlukan untuk memahami mengapa model mengalami halusinasi (menghasilkan informasi salah), keluar jalur, dan sejauh mana dapat dipercaya untuk tugas kritis
- Jaringan padat (dense network) menyebarkan pembelajaran ke jutaan koneksi, membuat pelacakan konsep spesifik hampir mustahil dilakukan
- Superposition memperumit analisis karena satu neuron bisa mewakili beragam fitur tidak terkait, mirip partikel kuantum dalam banyak keadaan sekaligus
- Weight-sparse transformer membatasi koneksi neuron secara artifisial, memaksa model mengorganisir pengetahuan lebih terstruktur dalam kluster
- Meskipun lebih lambat, model eksperimental memungkinkan peneliti melacak alur pemikiran AI langkah demi langkah untuk pertama kalinya
- Riset ini membuka jalan bagi AI yang lebih dapat diaudit, diverifikasi, dan diamankan untuk aplikasi sensitif seperti kesehatan atau keuangan
Tantangan Skalabilitas
Grigsby tidak yakin teknik ini bisa diskalakan ke model lebih besar yang menangani beragam tugas lebih sulit10. Model eksperimental saat ini maksimal setara GPT-1—teknologi tujuh tahun lalu. Perjalanan dari prototipe penelitian ke sistem produksi masih panjang.
Namun langkah pertama sudah diambil. Kemampuan melihat "ke dalam" AI dapat mengubah pemahaman fundamental tentang kecerdasan buatan. Bukan hanya membuat model lebih kuat—tapi membuat manusia lebih paham apa sebenarnya yang mereka buat.
Kesimpulan
OpenAI menciptakan large language model eksperimental berbasis weight-sparse transformer yang secara drastis lebih transparan dibanding model konvensional. Meski kemampuannya setara GPT-1 dan kecepatannya lebih lambat, model ini memungkinkan peneliti melacak mekanisme internal AI secara langsung—terobosan penting untuk memahami halusinasi, keamanan, dan kepercayaan sistem AI dalam domain kritis. Riset mechanistic interpretability ini mendapat sambutan baik komunitas ilmiah, meski tantangan skalabilitas ke model besar masih terbuka.
Daftar Pustaka
- Heaven, W. D. (2025, 13 November). OpenAI's new LLM exposes the secrets of how AI really works. MIT Technology Review. https://www.technologyreview.com/2025/11/13/1127914/openais-new-llm-exposes-the-secrets-of-how-ai-really-works/
- Ibid.
- Ibid.
- Ibid.
- Ibid.
- Ibid.
- Ibid.
- Ibid.
- Ibid.
- Ibid.

