Tim O'Brien, penulis teknologi O'Reilly Media, mengungkapkan kesalahan fundamental yang sering dilakukan developer (pengembang): memperlakukan AI pair programmer (pemrogram AI berpasangan) seperti manusia.1 Dia mengaku pernah berkata "you" kepada alat AI-nya, seolah berbicara dengan junior developer. Kemudian marah ketika AI "tidak memahami" instruksinya. Ini bukan masalah AI. Masalahnya ada pada ekspektasi manusia.
Model AI tidak memahami. Mereka menghasilkan dan mengikuti pola.1 Kata kuncinya: "it" (itu), bukan "you" (kamu).
Ilusi Pemahaman: Ketika Algoritma Terasa Seperti Teman
Output yang lancar dan sopan menciptakan ilusi bahwa ada pikiran di balik layar.1 Model berkata "Great idea!" atau "I recommend..." seolah menimbang opsi dan menilai rencana Anda. Faktanya? Tidak. Model tidak punya opini. Ia mengenali pola dari data pelatihan dan prompt Anda, lalu mensintesis token berikutnya.
Ini tidak membuat alat tersebut tidak berguna. Artinya Anda yang melakukan pemahaman.1 Model pintar, cepat, sering benar—tetapi bisa sangat salah dengan cara yang membingungkan. Yang penting: kesalahan itu adalah tanggung jawab Anda karena tidak memberikan konteks yang cukup.
| Aspek 🔍 | AI Model | Human Developer 👨💻 |
|---|---|---|
| Pemahaman Konteks | Mengenali pola dari data pelatihan | Memahami makna dan intent |
| Opini | Tidak memiliki opini | Dapat memberikan penilaian |
| Kesalahan | Pattern-following naif | Kesalahan logika atau kelalaian |
| Validasi | Memerlukan validasi eksternal | Self-aware dan dapat mengkritik diri |
| Pembelajaran | Tidak belajar dari interaksi | Belajar dari pengalaman |
| Asumsi | Tidak berbagi asumsi user | Dapat memahami asumsi implisit |
| Tanggung Jawab 📋 | Tanggung jawab ada pada user | Bertanggung jawab atas kode sendiri |
Contoh Kasus: Pattern Following yang Naif
Teman O'Brien meminta modelnya membuat scaffold (kerangka) proyek. AI menghasilkan blok komentar yang secara literal menyatakan "This is authored by <Random Name>."1 Dia melakukan pencarian Google terhadap nama tersebut. Ternyata itu adalah snippet publik seseorang yang telah dipelajari model sebagai pola—termasuk komentar "authored by"—dan dibeo kembali ke file baru.
Bukan jahat. Sekadar mekanis.1 Model tidak "tahu" bahwa menambahkan atribusi penulis palsu itu absurd. Inilah yang dimaksud dengan pattern following tanpa pemahaman konteks.
Membangun Kepercayaan Sebelum Menulis Kode
Kesalahan pertama yang dilakukan kebanyakan orang adalah overtrust (kepercayaan berlebihan).1 Kesalahan kedua adalah lazy prompting (prompt yang malas). Perbaikan untuk keduanya sama: Bersikaplah presisi tentang input, dan validasi asumsi yang Anda lemparkan ke model.
O'Brien merekomendasikan: Uraikan konteks, batasan (constraints), batas direktori, dan kriteria sukses secara eksplisit.1 Minta diff. Jalankan tes. Minta AI untuk mempertanyakan asumsi Anda. Buat AI menyatakan ulang masalah Anda dan minta konfirmasi.
Sebelum melemparkan masalah senilai $500/jam ke eksekusi model paralel, lakukan pekerjaan rumah sendiri.1 Pastikan Anda telah mengomunikasikan semua asumsi dan bahwa model telah memahami kriteria sukses Anda. Kedengarannya sederhana? Ya. Tapi jarang dilakukan.
Prinsip Kepercayaan dalam Era AI Coding
Konsep "build trust before code" (membangun kepercayaan sebelum kode) kini meluas ke keamanan siber dan open-source.2 Linux Foundation meluncurkan trust scorecards untuk melawan ancaman keamanan open-source yang meningkat, terutama setelah insiden malware pada library xz yang nyaris lolos.3 Transparansi dan reproduksibilitas menjadi kunci—FreeBSD bahkan mengadopsi Zero-Trust Builds sebelum rilis versi 15.0.4
Kegagalan? Lihat ke Dalam Diri
O'Brien mengaku masih jatuh ke jebakan ini ketika meminta alat AI mengambil terlalu banyak kompleksitas tanpa memberikan konteks yang cukup.1 Dan ketika gagal, dia mengetik hal-hal seperti, "You've got to be kidding me? Why did you..." Ingat: tidak ada "you" di sini selain diri Anda sendiri.
- Model tidak berbagi asumsi Anda—jika Anda tidak mengatakan untuk tidak memperbarui database, dan ia menulis migrasi idiot, Anda yang melakukannya dengan tidak menguraikan batasan tersebut.1
- Model tidak membaca pikiran Anda tentang lingkup—jika tidak menguncinya ke folder, ia akan "dengan senang hati" merefaktor seluruh dunia.1
- Model tidak dilatih hanya pada kode "baik"—banyak kode di internet yang... tidak bagus. Tugas Anda adalah menentukan batasan dan kriteria sukses.1
Model Mental yang Efektif
Perlakukan model seperti compiler (kompilator) untuk instruksi: garbage in, garbage out.1 Asumsikan ia pintar tentang pola, bukan tentang domain Anda. Buat ia membuktikan kebenaran dengan tes, invarian, dan batasan. Ini bukan manusia—dan itu bukan penghinaan. Itu keuntungan Anda.
Jika Anda berhenti mengharapkan penilaian tingkat manusia dan mulai memberikan kejelasan tingkat mesin, hasil Anda melonjak.1 Namun, jangan biarkan persetujuan sycophantic (menggelembung) membuat Anda berpikir bahwa Anda memiliki pair programmer di sebelah Anda.
Kesimpulan
AI pair programmer adalah alat canggih, bukan rekan kerja. Ekspektasi yang keliru menciptakan frustrasi yang tidak perlu. Developer harus memahami bahwa model AI mengikuti pola, tidak memahami maksud. Dengan prompt yang presisi, validasi ketat, dan mental model yang tepat—memperlakukan AI sebagai compiler instruksi—produktivitas dapat melonjak signifikan. Tanggung jawab akhir tetap pada manusia yang memberikan konteks dan kriteria sukses. Ini bukan keterbatasan; ini adalah peluang untuk memanfaatkan AI secara optimal dalam pengembangan perangkat lunak modern.
Daftar Pustaka
- O'Brien, T. (2025, November 12). Your AI Pair Programmer Is Not a Person. O'Reilly Media. https://www.oreilly.com/radar/your-ai-pair-programmer-is-not-a-person/
- Building Trust Before Code: Rethinking Cyber Risk for Growing Businesses. (2025, Juni 20). International Business Times. https://www.ibtimes.com/building-trust-before-code-rethinking-cyber-risk-growing-businesses-3776382
- Linux Foundation's trust scorecards aim to battle rising open-source security threats. (2025, Maret 19). ZDNet. https://www.zdnet.com/article/linux-foundations-trust-scorecards-aim-to-battle-rising-open-source-security-threats/
- FreeBSD shortly before 15.0: Trust is good, reproducibility is better. (2025, Oktober 31). Heise Online. https://www.heise.de/en/news/FreeBSD-shortly-before-15-0-Trust-is-good-reproducibility-is-better-10965171.html

