Shadow AI dan Blind Spot Tata Kelola: Tantangan Baru Organisasi di Era Kecerdasan Buatan

Lonjakan adopsi kecerdasan buatan (AI) di lingkungan kerja menghadirkan paradoks baru. Di satu sisi, AI mendorong efisiensi dan produktivitas. Di sisi lain, penggunaan AI secara personal tanpa pengawasan—dikenal sebagai shadow AI—memunculkan celah serius dalam tata kelola, keamanan data, dan kepercayaan organisasi.

Shadow AI dan Blind Spot Tata Kelola

Ekonomi AI Bayangan di Tempat Kerja

Temuan MIT Media Lab melalui Project NANDA pada November 2025 mengungkap fenomena yang mencolok. Sekitar 40 persen perusahaan tercatat memiliki langganan alat AI resmi. Namun, pada saat yang sama, 90 persen pekerja mengaku menggunakan AI pribadi seperti Grok, ChatGPT, atau Claude untuk kebutuhan pekerjaan harian, sering kali tanpa sepengetahuan atasan.

Laporan MIT NANDA State of AI in Business 2025 mencatat ketimpangan yang signifikan. Meski perusahaan global telah menggelontorkan investasi sebesar 30–40 miliar dollar AS untuk AI generatif, hanya 5 persen proyek percontohan AI internal yang berhasil masuk tahap produksi dan memberikan dampak bisnis terukur. Kondisi ini melahirkan apa yang disebut peneliti sebagai shadow AI economy.

Fenomena tersebut tidak sekadar pelanggaran kebijakan. Banyak pekerja menilai sistem AI tidak resmi justru lebih cepat, responsif, dan mudah diadopsi dibandingkan solusi korporat. Untuk tugas-tugas sederhana seperti penulisan email atau analisis dasar, sekitar 70 persen pekerja memilih AI ketimbang rekan manusia karena alasan kecepatan dan konsistensi.

Namun, batas kepercayaan itu tetap ada. Untuk pekerjaan berisiko tinggi—mulai dari pengambilan keputusan strategis, evaluasi kinerja, hingga peninjauan kontrak—90 persen pekerja masih menghendaki pengawasan manusia. Mereka menyadari keterbatasan AI dalam memahami konteks, nuansa, serta implikasi etis dari keputusan yang dihasilkan.

Produktivitas Naik, Risiko Ikut Membesar

Survei Microsoft dan Censuswide terhadap 2.003 pekerja di Inggris pada Oktober 2025 menunjukkan AI generatif menghemat rata-rata 7,75 jam kerja per minggu per karyawan untuk tugas administratif. Efisiensi ini setara dengan 12,1 miliar jam atau nilai ekonomi sekitar 268 miliar dollar AS per tahun bagi perekonomian Inggris.

Meski demikian, kekhawatiran terhadap risiko juga meningkat. Sebanyak 32 persen responden mengaku cemas terhadap privasi data perusahaan dan pelanggan yang dimasukkan ke dalam AI konsumen, sementara 29 persen menyoroti ancaman terhadap keamanan sistem teknologi informasi organisasi.

Kondisi ini memunculkan apa yang disebut sebagai blind spot tata kelola. Produktivitas memang terdongkrak, tetapi kesadaran terhadap risiko justru menurun. Banyak pekerja enggan diatur oleh kebijakan tata kelola AI dan data yang dianggap membatasi fleksibilitas kerja.

Ancaman Nyata terhadap Keamanan Data

Skala risiko shadow AI tercermin dalam IBM Cost of a Data Breach Report 2025. Dari 600 organisasi yang mengalami pelanggaran data antara Maret 2024 hingga Februari 2025, sekitar 20 persen melibatkan penggunaan shadow AI. Organisasi dengan tingkat shadow AI tinggi mencatat tambahan biaya rata-rata 670.000 dollar AS dibandingkan mereka yang minim atau bebas dari praktik tersebut.

Lebih mengkhawatirkan, 65 persen insiden shadow AI menyebabkan kebocoran data identitas pribadi (PII) pelanggan—jauh di atas rata-rata global sebesar 53 persen. Kekayaan intelektual juga terdampak dalam 40 persen kasus. Data sensitif tersebut tersebar di berbagai lingkungan, mulai dari cloud publik, server lokal, hingga perangkat pribadi.

Ironisnya, hanya 17 persen perusahaan yang memiliki kontrol teknis untuk mencegah unggahan data rahasia ke platform AI publik. Sisanya masih bergantung pada pelatihan, peringatan email, atau bahkan tidak memiliki mekanisme pencegahan sama sekali.

Penelitian CybSafe dan National Cybersecurity Alliance pada akhir 2024 menunjukkan sekitar 38 persen karyawan pernah membagikan data rahasia ke platform AI tanpa izin. Temuan ini sejalan dengan survei Sharing Vision di Indonesia pada Juni 2025 terhadap hampir 6.000 responden, di mana 66 persen menyatakan kekhawatiran atas kebocoran atau penyalahgunaan data pribadi.

Krisis Kepercayaan terhadap AI Korporat

Fenomena shadow AI juga mencerminkan krisis kepercayaan yang lebih dalam. Survei SHL pada November 2025 terhadap lebih dari 1.000 pekerja dewasa di Amerika Serikat menunjukkan hanya 27 persen yang sepenuhnya percaya perusahaan mereka menggunakan AI secara bertanggung jawab. Sebanyak 59 persen menilai AI justru memperburuk bias, dan mayoritas masih menginginkan manusia terlibat dalam proses rekrutmen serta evaluasi kinerja.

Indeks Deloitte TrustID mencatat kepercayaan terhadap AI generatif yang disediakan perusahaan turun 31 persen antara Mei dan Juli 2025. Penurunan lebih tajam terjadi pada sistem agentic AI—yang mampu bertindak mandiri—dengan anjloknya tingkat kepercayaan hingga 89 persen dalam periode yang sama.

Riset global University of Melbourne dan KPMG pada 2025, melibatkan lebih dari 48.000 responden di 47 negara, menunjukkan sikap publik yang terbelah: 42 persen melihat manfaat AI lebih besar dari risikonya, 32 persen berpendapat sebaliknya, dan 26 persen menilai keduanya setara.

Regulasi Meningkat, Kesadaran Tertinggal

Di tengah percepatan adopsi AI, lanskap regulasi global turut bergerak cepat. Lembaga di Amerika Serikat menerbitkan 59 regulasi AI sepanjang 2024, lebih dari dua kali lipat dibandingkan tahun sebelumnya. Secara global, 75 negara meningkatkan legislasi AI sebesar 21 persen.

Namun, menurut Kiteworks, hanya 12 persen perusahaan yang menempatkan risiko kepatuhan sebagai perhatian utama terkait AI. Ketimpangan antara laju regulasi dan kesiapan organisasi ini berpotensi menjadi bom waktu kepatuhan.

Dari Larangan ke Kemitraan

MIT NANDA menilai akar persoalan terletak pada kegagalan organisasi menyediakan solusi AI yang relevan dengan kebutuhan kerja nyata. Dari 300 inisiatif AI yang dianalisis, strategi membeli solusi dari vendor profesional mencatat tingkat keberhasilan 67 persen, jauh di atas pendekatan membangun sistem internal yang hanya mencapai 33 persen.

Laporan tersebut juga menyoroti bias investasi, di mana sebagian besar anggaran AI diarahkan ke penjualan dan pemasaran, padahal ROI tertinggi justru berasal dari otomasi back-office. Studi kasus menunjukkan potensi penghematan 2–10 juta dollar AS per tahun serta penurunan 30 persen biaya agensi eksternal.

Menghadapi shadow AI, pendekatan represif dinilai tidak efektif. Daniel Spicer, VP Security dan Chief Security Officer Ivanti, menegaskan bahwa praktik shadow IT muncul ketika organisasi gagal menyediakan cara yang masuk akal untuk menyelesaikan pekerjaan.

Sebagai alternatif, organisasi didorong mengadopsi pendekatan kemitraan: membangun kebijakan AI yang realistis dan bertahap, menyediakan alternatif AI resmi yang setara, mengedukasi karyawan tanpa menakut-nakuti, meningkatkan visibilitas melalui audit dan monitoring, serta memastikan keterlibatan manusia dalam keputusan berisiko tinggi melalui prinsip Human in the Loop.

Menuju Tata Kelola yang Transparan dan Manusiawi

Kesimpulannya, shadow AI bukanlah penyakit, melainkan gejala dari sistem organisasi yang belum siap. Ketika 90 persen pekerja menggunakan AI pribadi sementara hanya 40 persen perusahaan menyediakan solusi resmi, hal itu mencerminkan kebutuhan produktivitas yang belum terjawab.

Data dari MIT, IBM, Microsoft, hingga survei di Indonesia menunjukkan satu benang merah: ekonomi AI bayangan akan terus tumbuh jika organisasi tidak segera menjembatani kebutuhan karyawan dengan tata kelola yang bertanggung jawab.

Solusi ke depan menuntut pergeseran paradigma—dari kontrol menuju kolaborasi, dari larangan menuju pemberdayaan, dan dari pendekatan “polisi” menjadi kemitraan. Dengan mengedepankan transparansi, kepercayaan, serta komunikasi organisasi yang humanistik, tata kelola AI berpeluang menjadi fondasi kerja yang produktif, aman, dan berkelanjutan di era AI agentic yang kian dekat.