BERITA TERKINI
Inovasi AI Melesat, Etika dan Batasan Dinilai Kian Mendesak

Inovasi AI Melesat, Etika dan Batasan Dinilai Kian Mendesak

Perkembangan kecerdasan buatan (artificial intelligence/AI) yang kian cepat memunculkan kekaguman sekaligus pertanyaan mendasar: sejauh mana manusia siap menyerahkan sebagian kendali kepada mesin. Di saat banyak sistem AI dirancang untuk menjawab hampir semua hal, risiko seperti jawaban keliru, bias, hingga misinformasi ikut mengemuka, terutama ketika AI tidak memahami konteks secara utuh.

Dalam situasi ini, muncul dorongan agar pengembangan AI tidak hanya mengejar kemampuan dan kecepatan, tetapi juga memasukkan etika serta kesadaran batas. Salah satu pendekatan yang mulai dibicarakan adalah membuat AI yang mampu “mengaca”—memahami keterbatasan, mengetahui kapan tidak yakin, dan menghentikan proses sebelum menghasilkan jawaban yang berpotensi menyesatkan.

Konsep tersebut antara lain diwujudkan melalui mekanisme pengalihan tugas ke manusia ketika sistem mendeteksi ketidakpastian. Pendekatan seperti ini disebut mulai diuji oleh sejumlah perusahaan. SleekFlow, misalnya, memperkenalkan sistem AgentFlow yang difokuskan untuk layanan pelanggan.

“Kesalahan dalam layanan pelanggan tidak selalu soal teknologi, tapi tentang hubungan. Karena itu, AgentFlow dibuat untuk membantu, bukan menggantikan manusia sepenuhnya,” ujar Asnawi Jufrie, VP & GM SleekFlow Asia Tenggara, melalui catatannya.

Di luar konteks merek, kecenderungan ini dipandang sebagai bagian dari pergeseran tren: dari AI yang sekadar canggih menuju AI yang lebih etis dan memahami peran. Perubahan persepsi juga terlihat pada sisi konsumen. Jika sebelumnya AI kerap dianggap sebagai jawaban untuk berbagai persoalan, kini sebagian masyarakat mulai lebih realistis terhadap batas kemampuannya.

Berdasarkan riset yang beredar, termasuk yang dilakukan SleekFlow, mayoritas konsumen—terutama di Indonesia—disebut lebih nyaman berinteraksi dengan manusia saat menghadapi persoalan yang sensitif, rumit, atau emosional. Temuan ini menjadi sinyal bahwa otomatisasi dan kecepatan saja tidak selalu memadai, terutama untuk situasi yang menuntut empati dan penilaian kontekstual.

Risiko lain yang turut disorot adalah kecenderungan AI yang tampak “terlalu percaya diri”. Selain dapat menghasilkan jawaban salah atau bias, AI juga berpotensi memunculkan rasa percaya palsu pada pengguna. Dalam beberapa kasus, sistem dapat menyajikan informasi yang terdengar meyakinkan namun keliru—fenomena yang dikenal sebagai AI hallucination.

Karena itu, fitur seperti pengecekan jawaban, deteksi ketidakyakinan (knowledge gap detection), serta pengalihan ke manusia dinilai perlu menjadi standar etika baru dalam pembangunan AI, bukan sekadar pelengkap.

Di sisi lain, tantangan regulasi masih besar. Hingga kini, banyak negara—termasuk Indonesia—dinilai belum memiliki kerangka aturan yang jelas dan matang terkait penggunaan AI. Laporan Boston Consulting Group menyebutkan lebih dari 70 persen negara masih belum siap secara struktural, baik dari aspek kebijakan, keterampilan sumber daya manusia, maupun investasi jangka panjang terkait AI.