{!-- ra:00000000000003ec0000000000000000 --}MIT Ciptakan 'Pelatih Pintar' Untuk Model Bahasa AI Yang Lebih Akurat - SWANTE ADI KRISNA
cross
Hit enter to search or ESC to close
MIT Ciptakan 'Pelatih Pintar' Untuk Model Bahasa AI Yang Lebih Akurat
17
July 2025

MIT Ciptakan 'Pelatih Pintar' Untuk Model Bahasa AI Yang Lebih Akurat

  • 41
  • 17 July 2025
MIT Ciptakan 'Pelatih Pintar' Untuk Model Bahasa AI Yang Lebih Akurat

Peneliti MIT mengembangkan CodeSteer, asisten AI yang membantu model bahasa besar beralih antara teks dan kode untuk meningkatkan akurasi hingga 30 persen

Peneliti dari Massachusetts Institute of Technology (MIT) telah menciptakan sebuah terobosan dlm dunia Artificial Intelligence (Kecerdasan Buatan) yang dapat merevolusi cara kerja model bahasa besar atau Large Language Models (LLM). Inovasi bernama CodeSteer ini berperan sebagai "pelatih pintar" yg memandu LLM untuk beralih antara penalaran tekstual dan generasi kode, meningkatkan akurasi hingga lebih dari 30 persen 1.

Mengapa LLM Butuh Pelatih?

Model bahasa besar seperti GPT-4 atau Claude memang unggul dalam memahami konteks dokumen dan memberikan jawaban logis melalui penalaran tekstual. Namun, model-model ini sering kali kesulitan menjawab soal matematika sederhana sekalipun. Misalnya, ketika ditanya angka mana yg lebih besar antara 9.11 atau 9.9, LLM seringkali memberikan jawaban yang salah jika menggunakan penalaran tekstual 2.

Chuchu Fan, profesor aeronautika dan astronautika MIT sekaligus peneliti utama di MIT Laboratory for Information and Decision Systems (LIDS), menjelaskan bahwa ada perlombaan untuk mengembangkan model yang lebih baik dan mampu melakukan segalanya. "Tapi kami mengambil pendekatan komplementer. Peneliti telah menghabiskan bertahun-tahun mengembangkan teknologi dan alat efektif untuk mengatasi masalah di banyak domain. Kami ingin memungkinkan LLM memilih alat dan metode yg tepat," ungkapnya 3.

Cara Kerja CodeSteer

Sistem Pelatihan yang Terinspirasi Manusia

CodeSteer bekerja seperti pelatih olahraga profesional. Sama seperti pelatih yang mungkin tidak lebih baik dari atlet bintang di timnya, namun tetap bisa memberikan saran berharga untuk memandu atlet tersebut, CodeSteer juga beroperasi dengan prinsip serupa 4. Yongchao Chen, mahasiswa pascasarjana LIDS dan penulis utama penelitian ini, mengatakan bahwa mereka terinspirasi oleh manusia dlm mengembangkan sistem ini.

Prosesnya dimulai dengan CodeSteer yang meninjau kueri dan menentukan apakah teks atau kode lebih cocok untuk masalah tersebut, serta jenis kode apa yg akan bekerja paling baik. Kemudian ia menghasilkan prompt untuk LLM yang lebih besar, memberitahunya untuk menggunakan metode pengkodean atau penalaran tekstual untuk menjawab kueri 5.

Iterasi dan Perbaikan Berkelanjutan

Yang menarik dari CodeSteer adalah kemampuannya untuk melakukan evaluasi berkelanjutan. Jika jawaban tidak benar, CodeSteer akan terus mendorong LLM untuk mencoba hal-hal berbeda yg mungkin dapat memperbaiki masalah, seperti memasukkan algoritma pencarian atau kendala ke dalam kode Python-nya, hingga jawaban benar 6. Sistem ini juga dilengkapi dengan pemeriksa simbolik yang mengevaluasi kompleksitas kode dan mengirimkan sinyal ke CodeSteer jika terlalu sederhana atau tidak efisien.

Dataset dan Pengujian SymBench

Dalam mengembangkan CodeSteer, para peneliti tidak dapat menemukan dataset simbolik yg cocok untuk melakukan fine-tuning dan menguji model, karena banyak benchmark yang ada tidak menunjukkan apakah kueri tertentu paling baik diselesaikan dengan teks atau kode. Oleh karena itu, mereka mengumpulkan korpus 37 tugas simbolik kompleks, termasuk penalaran spasial, matematika, penalaran urutan, dan optimisasi, serta membangun dataset mereka sendiri yang disebut SymBench 7.

Hasil pengujian menunjukkan bahwa CodeSteer mengungguli sembilan metode baseline yg dievaluasi dan meningkatkan akurasi rata-rata dari 53,3 persen menjadi 86,4 persen. Yang lebih mengesankan lagi, sistem ini mempertahankan kinerja serupa bahkan pada tugas-tugas yang belum pernah dilihat sebelumnya dan pada berbagai LLM 8.

Dampak untuk Indonesia

Perkembangan ini sangat relevan untuk Indonesia yg sedang giat mengembangkan ekosistem AI nasional. Seperti yg dilaporkan berbagai media, Indonesia telah memiliki inisiatif pengembangan LLM dalam bahasa Indonesia seperti Sahabat-AI yang dikembangkan GoTo dan Indosat dengan kapasitas 70 miliar parameter 9. Teknologi seperti CodeSteer dapat membantu meningkatkan kemampuan model-model bahasa Indonesia ini dlm menyelesaikan tugas-tugas komputasional yang kompleks.

Selain itu, dengan semakin banyaknya perguruan tinggi di Indonesia yang mulai mengadopsi kebijakan penggunaan AI, seperti UIN Jakarta yang menjadi pelopor kebijakan penggunaan kecerdasan buatan di perguruan tinggi Islam 10, teknologi seperti CodeSteer bisa menjadi solusi untuk meningkatkan efektivitas penggunaan AI dlm penelitian dan pendidikan.

Masa Depan dan Tantangan

Para peneliti berencana untuk merampingkan CodeSteer agar dapat mempercepat proses prompting iteratifnya. Selain itu, mereka juga sedang mempelajari cara untuk secara efektif melakukan fine-tuning pada model terpadu dengan kemampuan untuk beralih antara penalaran tekstual dan generasi kode, daripada mengandalkan asisten terpisah 11.

Jinsung Yoon, ilmuwan peneliti senior di Google Cloud AI yang tidak terlibat dlm penelitian ini, berkomentar bahwa penulis menyajikan solusi elegan untuk tantangan kritis pemanfaatan alat dalam LLM. "Metode sederhana namun berdampak ini memungkinkan LLM canggih mencapai peningkatan kinerja signifikan tanpa memerlukan fine-tuning langsung," katanya 12.

Kesimpulan

CodeSteer merepresentasikan pendekatan inovatif dalam meningkatkan kemampuan LLM tanpa perlu melakukan pelatihan ulang pada model besar. Dengan menggunakan model yang lebih kecil sebagai "pelatih pintar", teknologi ini membuka jalan bagi aplikasi AI yg lebih robust dan serbaguna dlm skenario dunia nyata yang kompleks. Bagi Indonesia yang sedang membangun ekosistem AI nasional, teknologi seperti ini dapat menjadi kunci untuk mengoptimalkan performa model bahasa Indonesia dan meningkatkan daya saing teknologi AI nasional di kancah global.

Referensi

  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • ANTARA News. (2025, Juni 2). GoTo-Indosat luncurkan Sahabat-AI berkapasitas 70 miliar parameter. https://www.antaranews.com
  • UIN Jakarta. (2025, Juni 3). UIN Jakarta Pelopori Kebijakan Penggunaan Kecerdasan Buatan di Perguruan Tinggi Islam. https://uinjkt.ac.id
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
  • MIT News. (2025, Juli 17). This "smart coach" helps LLMs switch between text and code. https://news.mit.edu/2025/smart-coach-helps-llms-switch-between-text-and-code-0717
Download PDF tentang Optimalisasi Performa Large La (telah di download 55 kali)
  • MIT Ciptakan 'Pelatih Pintar' Untuk Model Bahasa AI Yang Lebih Akurat
    Penelitian ini mengeksplorasi implementasi CodeSteer sebagai sistem asisten yang memandu Large Language Models (LLM) dalam menentukan penggunaan pendekatan penalaran tekstual atau generasi kode untuk meningkatkan akurasi penyelesaian tugas simbolik kompleks. Melalui metodologi iteratif dan evaluasi berkelanjutan, CodeSteer berhasil meningkatkan performa LLM hingga 30 persen pada berbagai tugas komputasional yang meliputi operasi matematika, permainan Sudoku, dan manipulasi objek spasial dengan mengoptimalkan pemilihan strategi penyelesaian masalah.
Penulis
Swante Adi Krisna
Penikmat musik Ska, Reggae dan Rocksteady sejak 2004. Gooners sejak 1998. Blogger dan ai paruh waktu sejak 2014. Graphic Designer autodidak sejak 2001. Website Programmer autodidak sejak 2003. Woodworker autodidak sejak 2024. Sarjana Hukum Pidana dari salah satu Perguruan Tinggi Negeri di Surakarta. Magister Hukum Pidana di bidang cybercrime dari salah satu Perguruan Tinggi Swasta di Surakarta. Magister Kenotariatan di bidang hukum teknologi, khususnya cybernotary dari salah satu Perguruan Tinggi Negeri di Surakarta. Bagian dari Keluarga Besar Kementerian Pertahanan Republik Indonesia.