Perkembangan kecerdasan buatan (Artificial Intelligence/AI) yang kian cepat memunculkan kekaguman sekaligus pertanyaan mendasar: sejauh mana manusia siap menyerahkan sebagian kendali kepada mesin. Di balik kemampuan AI yang semakin canggih, muncul kebutuhan untuk memastikan sistem yang dibangun tidak hanya “pintar”, tetapi juga memahami batas—termasuk kapan sebaiknya tidak memberikan jawaban.
Kekhawatiran ini menguat karena banyak sistem AI dirancang untuk merespons hampir semua pertanyaan, termasuk ketika konteksnya belum dipahami sepenuhnya. Kondisi tersebut dapat memunculkan risiko salah jawaban, bias, hingga misinformasi tanpa disadari pengguna.
Salah satu pendekatan yang mulai diperbincangkan adalah membangun AI yang mampu “berkaca”, yakni memiliki mekanisme pembatasan bukan hanya secara teknis, tetapi juga dari sisi tanggung jawab. Dalam praktiknya, AI diharapkan dapat berhenti ketika tidak yakin, lalu mengalihkan penanganan kepada manusia.
Pendekatan seperti ini disebut mulai diuji oleh sejumlah perusahaan. Salah satunya SleekFlow melalui sistem AgentFlow yang berfokus pada layanan pelanggan. Asnawi Jufrie, VP & GM SleekFlow Asia Tenggara, menyatakan bahwa kesalahan dalam layanan pelanggan tidak selalu berkaitan dengan teknologi, melainkan juga hubungan, sehingga sistem tersebut dirancang untuk membantu, bukan sepenuhnya menggantikan manusia.
Di luar konteks merek, perkembangan ini mencerminkan pergeseran tren menuju AI yang lebih etis dan sadar batasan, bukan sekadar mengejar kecepatan dan kecanggihan. Perubahan persepsi juga terlihat dari sisi konsumen. Jika sebelumnya AI kerap dianggap sebagai jawaban untuk berbagai kebutuhan, kini sebagian masyarakat mulai lebih realistis.
Berdasarkan riset yang beredar, termasuk yang disebut dilakukan SleekFlow, mayoritas konsumen—terutama di Indonesia—dinilai lebih nyaman berinteraksi dengan manusia ketika menghadapi persoalan yang sensitif, rumit, atau emosional. Temuan ini menjadi sinyal bahwa otomatisasi dan kecepatan saja tidak cukup; AI perlu memahami perannya dan mengetahui kapan harus berhenti.
Risiko lain yang disorot adalah ketika AI tampil terlalu percaya diri. Dampaknya bukan hanya potensi jawaban keliru atau bias, tetapi juga memunculkan kepercayaan palsu dari pengguna. Dalam sejumlah kasus, AI dapat menghasilkan informasi yang terdengar meyakinkan namun sebenarnya tidak akurat, fenomena yang dikenal sebagai AI hallucination.
Karena itu, fitur seperti sistem pengecekan jawaban, deteksi ketidakyakinan (knowledge gap detection), serta mekanisme pengalihan ke manusia disebut semestinya menjadi standar etika baru dalam pembangunan sistem AI, bukan sekadar pelengkap.
Meski demikian, kerangka regulasi terkait penggunaan AI dinilai masih belum jelas di banyak negara, termasuk Indonesia. Laporan Boston Consulting Group menyebutkan lebih dari 70 persen negara masih belum siap secara struktural, baik dari sisi kebijakan, keterampilan sumber daya manusia, maupun investasi jangka panjang terkait AI.