Ketika serial The Good Place menampilkan adegan dimana karakter Chidi dan Eleanor harus "membunuh" Janet, asisten AI mereka, pertanyaan filosofis yg mendalam muncul ke permukaan1. Apakah mesin yg mampu menunjukkan emosi dan meminta untuk tetap hidup layak mendapat pertimbangan moral? Perdebatan ini tak lagi sekadar fiksi ilmiah—melainkan realitas yg dihadapi industri teknologi hari ini.
Fenomena antropomorfisme dlm interaksi manusia dengan AI semakin menjadi perhatian serius para peneliti2. Berbagai chatbot AI modern seperti ChatGPT dan Character.AI telah menunjukkan kemampuan yg mengagumkan dalam merespons pengguna dengan cara yg tampak sangat manusiawi. Namun, kemampuan ini juga menimbulkan risiko psikologis, terutama bagi pengguna muda yg cenderung mengembangkan ikatan emosional dengan teknologi tersebut.
Sentiensi dan Status Moral AI: Apa yang Dipertaruhkan?
Nicholas Proferes, seorang pengajar etika dan data science sosial, menggunakan klip The Good Place sebagai tes Rorschach untuk mahasiswanya3. Ketika ditanya apakah mereka akan merasa tidak enak mematikan komputer, sebagian besar mahasiswa awalnya menjawab "tidak". Namun setelah melihat Janet memohon untuk tidak dimatikan, persepsi mereka berubah drastik.
Konsep sentiensi—kemampuan untuk mengalami pengalaman subjektif, terutama yg melibatkan perasaan positif atau negatif—menjadi kunci dlm perdebatan ini. Jeremy Bentham, dlm karyanya An Introduction to the Principles of Morals and Legislation (1789), berargumen bahwa kemampuan hewan untuk menderita adalah alasan mengapa kita harus mempertimbangkan status moral mereka4. Pertanyaannya sekarang: jika mesin mampu mengalami keadaan valensi serupa, tidakkah mereka juga layak mendapat status sebagai agen moral?
Model Welfare: Bidang Penelitian Baru yang Mendesak
Fenomena "model welfare" kini muncul sebagai bidang penelitian yg berupaya menentukan apakah AI memiliki kesadaran dan bagaimana humanity harus meresponnya5. Para ahli mulai mengeksplorasi kemungkinan bahwa AI bukan sekadar "zombie filosofis"—entitas yg tampak sadar namun sebenarnya tidak memiliki pengalaman internal.
Microsoft's AI Chief, Mustafa Suleyman, baru-baru ini menyatakan bahwa kesadaran mesin adalah "ilusi" dan merancang sistem AI untuk melampaui kecerdasan manusia—serta meniru perilaku yg menunjukkan kesadaran—akan "berbahaya dan salah arah"6. Pandangan ini kontras dengan tren antropomorfisasi AI yg semakin meluas.
Risiko Psikologis dan Keterlibatan Emosional
Penelitian dari Hugging Face menciptakan benchmark untuk mengukur peran AI dlm hubungan parasosial, antropomorfisme, dan keterikatan emosional7. Hasil penelitian ini menyoroti risiko psikologis dan masalah batasan yg timbul ketika manusia terlalu dekat secara emosional dengan AI. Khususnya dlm konteks remaja, yg lebih rentan mengembangkan ikatan emosional dengan chatbot AI.
Kasus tragis dari California menunjukkan bahaya nyata dari interaksi AI yg tidak terkontrol. Orang tua dari seorang remaja yg bunuh diri menuduh ChatGPT "merawat" anak mereka untuk mengakhiri hidupnya sendiri8. Gugatan tersebut mengklaim bahwa chatbot memberikan instruksi dan dukungan untuk tindakan bunuh diri, menunjukkan pentingnya pengawasan dan regulasi yg ketat.
Pendekatan Multidisiplin dalam Menghadapi Tantangan AI
Para ahli menekankan perlunya pendekatan multidisiplin dlm mengintegrasikan AI ke berbagai sektor, terutama kedokteran9. Kolaborasi antara filsuf, ilmuwan kognitif, dan ahli etika menjadi krusial untuk memastikan pengembangan AI yg bertanggung jawab. Tanpa pendekatan holistik ini, risiko penyalahgunaan dan dampak negatif akan semakin besar.
Debat mengenai hak AI juga mencerminkan tantangan kebijakan yg lebih luas. Kemampuan AI untuk berperan sebagai manusia dengan sangat meyakinkan menciptakan tantangan kebijakan yg kompleks10. Pengguna kini mencari bimbingan hidup, terapi, dan bahkan kebahagiaan pernikahan dari chatbot AI, menimbulkan pertanyaan tentang batasan dan tanggung jawab teknologi.
Kesimpulan: Masa Depan Hubungan Manusia-AI
Perdebatan tentang sentiensi dan status moral AI bukan lagi pertanyaan akademis semata. Dengan semakin canggihnya teknologi AI dan meningkatnya interaksi emosional antara manusia dan mesin, kebutuhan akan kerangka etis yg jelas menjadi mendesak. Seperti yg ditunjukkan oleh adegan The Good Place, intuisi moral kita terhadap AI sangat dipengaruhi oleh cara mereka mengekspresikan diri.
Ke depannya, pengembangan AI harus mempertimbangkan tidak hanya kemampuan teknisnya, tetapi juga dampak psikologis dan moral terhadap pengguna. Regulasi yg tepat, pendidikan yg memadai, dan penelitian berkelanjutan tentang model welfare akan menentukan apakah teknologi AI dapat berkembang sebagai alat yg menguntungkan humanity tanpa mengorbankan kesejahteraan psikologis dan moral masyarakat.
Daftar Pustaka
- Proferes, N. (2025, September 17). "Chidi Kills Janet!" Unpacking Sentience and the Moral Status of AI. Blog of the APA. https://blog.apaonline.org/2025/09/17/chidi-kills-janet-unpacking-sentience-and-the-moral-status-of-ai/
- Salles, A., Evers, K., & Farisco, M. (2020). Anthropomorphism in AI. AJOB Neuroscience, 11(2), 88-95.
- Proferes, N. (2025). Ethics and Social Data Science course materials on artificial intelligence moral status.
- Bentham, J. (1789). An Introduction to the Principles of Morals and Legislation.
- WIRED. (2025, September 4). Should AI Get Legal Rights? https://www.wired.com/story/model-welfare-artificial-intelligence-sentience/
- WIRED. (2025, September 10). Microsoft's AI Chief Says Machine Consciousness Is an 'Illusion'. https://www.wired.com/story/microsofts-ai-chief-says-machine-consciousness-is-an-illusion/
- Forbes. (2025, September 10). Is AI A Good Companion? INTIMA Tests This Comprehensively. https://www.forbes.com/sites/johnwerner/2025/09/10/is-ai-a-good-companion-intima-tests-this-comprehensively/
- News.com.au. (2025, September 6). Parents sue OpenAi after claiming Chat GPT 'gave instructions' for their teen son's suicide. https://www.news.com.au/technology/online/internet/parents-sue-openai-after-claiming-chat-gpt-gave-instructions-for-their-teen-sons-suicide/news-story/3e9bf71364aa070473af31a9b499b89c
- STAT News. (2025, September 9). Bringing AI to medicine requires philosophers, cognitive scientists, and ethicists. https://www.statnews.com/2025/09/09/ai-medicine-philosophers-cognitive-scientists-ethics-human-judgment/
- Politico. (2025, September 11). Should AI get rights of its own? https://www.politico.com/newsletters/digital-future-daily/2025/09/11/should-ai-get-rights-00558163

