Tahun 2025 menjadi titik balik penting dalam perjalanan adopsi kecerdasan buatan (AI) di dunia enterprise. Jika beberapa tahun sebelumnya perusahaan berlomba-lomba mencoba berbagai tools AI.
Kini fokusnya bergeser, perusahaan ingin memastikan AI bisa beroperasi cepat tanpa mengorbankan keamanan dan kepercayaan. Jawabannya terletak pada kemampuan perusahaan melakukan tata kelola AI yang baik dan benar.
Dari Eksperimen Cepat ke Tantangan Skala Enterprise
Bagi banyak perusahaan, memulai proyek AI sebenarnya bukan perkara sulit. Model bahasa besar (large language model/LLM), chatbot internal, hingga analitik berbasis AI relatif mudah diuji coba dalam skala kecil.
Masalah muncul ketika proyek-proyek tersebut ingin naik kelas ke level enterprise. Saat itulah berbagai hambatan mulai terasa, mulai dari risiko kebocoran data, kontrol akses yang lemah, ketidakjelasan tanggung jawab, hingga kekhawatiran soal hukum dan kepatuhan. Dari semua tantangan tersebut, kesenjangan tata kelola AI menjadi persoalan paling krusial.
Tata Kelola Lama Tak Lagi Relevan
“Kecepatan inovasi AI luar biasa cepat. Proses tata kelola pun juga harus ikut berevolusi,” ujar Joe Depa (Global Chief Innovation Officer EY) dalam wawancaranya dengan CIO Dive.
Menurut Depa, model tata kelola tradisional tidak dirancang untuk aplikasi AI modern yang bersifat dinamis, terus belajar dari data bahkan melibatkan sistem otonom.
Akibatnya, banyak CIO kini dipaksa memikirkan ulang pendekatan mereka terhadap risiko, pengawasan, dan pengambilan keputusan berbasis AI.
Pendekatan Baru, Tata Kelola Berbasis Risiko
Di EY, para eksekutif tidak lagi menerapkan satu aturan kaku untuk semua kasus penggunaan AI. Sebagai gantinya, para eksekutif EY membangun protokol tata kelola berbeda berdasarkan tingkat risiko masing-masing use case.
Pendekatan itu memungkinkan perusahaan tetap berinovasi dengan cepat dan memiliki pagar pengaman yang jelas sesuai dampak bisnis serta sensitivitas data.
“Intinya adalah membuat profil risiko agar pedoman batas keamanan tepat sasaran. Dengan cara ini, organisasi bisa berinovasi secara bertanggung jawab,” kata Depa.
Tanpa Tata Kelola, Risiko Bisa Membengkak
Kekhawatiran para CIO bukan tanpa dasar. Survei IBM menunjukkan bahwa kontrol akses AI yang tidak tepat dapat membuka celah kebocoran data yang lebih luas, bahkan berujung pada gangguan operasional.
Lemahnya tata kelola juga berpotensi memperbesar biaya pelanggaran data, kerugian finansial, hingga kerusakan reputasi perusahaan.
Dalam konteks itu, tata kelola AI tidak lagi dipandang sebagai penghambat, melainkan perlindungan bisnis jangka panjang.
Paradigma lama yang menganggap tata kelola sebagai “rem” inovasi pun mulai ditinggalkan. Pada 2025, banyak eksekutif justru melihat tata kelola sebagai cara tercepat untuk mencapai nilai bisnis dari AI.
“Jika Anda memberi kejelasan dan batasan yang tepat, lalu membiarkan tim berinovasi di dalamnya, hal itu justru mempercepat inovasi,” jelas Depa.
Fokus Akan Semakin Tajam di 2026
Ke depan, perhatian terhadap tata kelola AI diprediksi akan semakin kuat, terutama seiring meningkatnya adopsi agentic AI, sistem AI yang mampu mengambil keputusan dan bertindak secara mandiri.
Tanpa fondasi tata kelola dan manajemen risiko yang matang, upaya penskalaan AI justru berpotensi menjadi bumerang.
Tahun 2025 menegaskan satu hal penting, AI tidak bisa lagi dipisahkan dari tata kelola yang matang. Bagi CIO dan pemimpin teknologi, tata kelola AI bukan sekadar kewajiban, melainkan strategi untuk memastikan AI benar-benar memberi nilai, aman, dan berkelanjutan.
Di era AI yang bergerak sangat cepat, justru aturan yang jelaslah yang membuat inovasi bisa berlari lebih kencang.


