Kehadiran ChatGPT pada akhir 2022 seolah jadi alarm pembuka era baru. Siapa saja kini mulai mencoba menulis puisi, membuat resep masakan, merangkum email hingga berkonsultasi dengan bantuan AI (AI generatif).
Namun, di balik euforia di ruang kantoran, lapangan, ruang kelas/sekolah, hingga ruang keluarga, ada realitas lain yang lebih kompleks, yaitu bagaimana jika AI diterapkan di level enterprise, di dalam organisasi/perusahaan besar yang menyimpan data sensitif.
Hal ini yang coba dijajal oleh perusahaan konsultan KPMG Australia. Berdasarkan pengalaman KPMG, AI untuk enterprise bukan sekadar versi “pro” dari ChatGPT, lebih dari itu penerapan teknologi generative AI atau bahkan agentic AI yang lebih otonom memerlukan pendekatan khusus untuk menghindari pelanggaran privasi data yang dapat merusak reputasi perusahaan.
Sejak diluncurkan, KPMG melihat potensi ChatGPT sebagai game changer
Mari kita mulai dari awal. Pada akhir 2022, setelah peluncuran ChatGPT oleh OpenAI, tim KPMG Australia—salah satu firma konsultasi terbesar di dunia—terpukau oleh potensinya. John Munnelly, Chief Digital Officer KPMG, melihat AI ini sebagai game-changer.
Tim KPMG pun merancang “TaxBot”, sebuah agen AI yang dibangun dengan prompt sepanjang 100 halaman. TaxBot menggunakan model retrieval-augmented generation (RAG) dan large language models (LLM) dari berbagai vendor seperti OpenAI, Microsoft, Google, Anthropic, dan Meta. Platform internal mereka, KPMG Workbench, menjadi host untuk agen AI tersebut, yang dilatih menggunakan nasihat pajak sebelumnya dari para partner dan kode pajak Australia.

Hasilnya cukup impresif, TaxBot sanggup menghasilkan draf pedoman/saran pajak 25 halaman dalam satu hari, sementara tim dengan manusia biasanya membutuhkan dua minggu.
“Ini melakukan apa yang biasa dilakukan tim kami dalam waktu sekitar dua minggu,” kata Munnelly.
Dengan demikian, karyawan pun bisa lebih fokus pada tugas-tugas menantang, bukan melakukan tugas rutin dan berulang yang membosankan. Bahkan, klien mulai tertarik membeli agen AI ini, membuka aliran pendapatan baru yang tak terduga. Di sini solusi terlihat AI sangat menarik karena membuat alur kerja yang lebih efisien (menurunkan biaya). Namun, di balik hal ini muncul masalah serius yang juga mengindikasikan mengapa penerapan AI untuk enterprise berbeda dengan AI untuk publik.
Privasi data menjadi faktor pembeda
AI untuk publik, seperti ChatGPT versi gratis atau berbayar, dirancang untuk aksesibilitas massal. Pengguna individu bisa bertanya apa saja, dari resep masak hingga esai sekolah, tanpa perlu cemas tentang privasi data yang sifatnya sensitif.
Risikonya rendah karena data yang diolah biasanya bersifat umum atau pribadi terbatas. Namun, di level enterprise, semuanya berbeda. Perusahaan seperti KPMG menangani data rahasia: informasi keuangan klien, rahasia dagang, dan detail pribadi karyawan. Eksperimen KPMG membuktikan ini dengan cara yang mengejutkan.
Saat menguji TaxBot, AI tersebut secara tidak sengaja menemukan dokumen di server perusahaan yang berisi ribuan nomor kartu kredit karyawan. Bagi Munnelly atau KPMG, insiden ini cukup menakutkan. Penemuan ini bukan kebocoran langsung, tapi menyoroti kerentanan, dimana AI generatif terlalu proaktif karena terlalu agresif merambah data yang tidak dimaksudkan, terutama jika terhubung ke sistem internal.

Ini bukan masalah teknis semata melainkan soal keamanan data yang dapat memicu pelanggaran regulasi, seperti GDPR di Eropa atau UU PDP di Indonesia. KPMG akhirnya menghentikan semua eksperimen dan memblokir akses ke ChatGPT sementara mereka mengevaluasi risiko AI secara keseluruhan.
Mengapa ini terjadi? AI publik seperti ChatGPT beroperasi di cloud publik, di mana data pengguna bisa dicampur atau diproses oleh model yang tidak sepenuhnya dikendalikan. Di enterprise, hal ini tidak bisa diterima. Perusahaan membutuhkan AI yang “privat” alias model AI yang dihosting di server internal atau cloud aman, dengan enkripsi ketat dan kontrol akses.
AI untuk bisnis masih butuh kontrol
KPMG akhirnya melanjutkan eksperimen dengan negosiasi lisensi baru bersama Microsoft untuk akses OpenAI, serta membangun platform AI privat. Mereka juga menyadari duplikasi kerja antar cabang global, sehingga menciptakan Workbench untuk akses terpadu.
Perbedaan ini meluas ke aspek lain. AI enterprise harus mematuhi compliance ketat: audit, transparansi, dan akuntabilitas. Misalnya, nasihat pajak dari TaxBot masih butuh pengawasan manusia (verifikasi dari beberapa ahli sebelum output final) karena kesalahan AI dapat berujung tuntutan hukum.
Di sisi lain, AI publik lebih fleksibel tapi rentan hallucination (informasi palsu) yang tak masalah untuk pengguna biasa, tapi fatal di bisnis. Laporan KPMG tentang kepercayaan pada AI global menekankan kekhawatiran ini: kebocoran data, hilangnya kekayaan intelektual, dan ancaman siber menjadi penghalang utama.

Implikasi lebih luas dari kasus KPMG adalah pelajaran bagi industri. Perusahaan seperti Google, Microsoft, dan Amazon kini menawarkan AI enterprise khusus, seperti Azure OpenAI atau Google Cloud AI, yang menjanjikan keamanan lebih tinggi. Namun, adopsi tetap lambat karena biaya dan kompleksitas. Di Australia, eksperimen KPMG juga memicu diskusi etis: seorang staf magang membagikan screenshot blokir ChatGPT di media sosial, yang menjadi berita besar, menunjukkan ketegangan antara inovasi dan kebijakan perusahaan.
Pada akhirnya, AI yang diterapkan untuk enterprise bukan tentang kecepatan semata, tapi keseimbangan antara efisiensi dan keamanan. Eksperimen KPMG membuktikan bahwa mengadopsi AI publik secara sembarangan bisa berujung mimpi buruk. Sebaliknya, AI yang dirancang khusus dengan fokus pada privasi, integrasi sistem, dan oversight manusia dapat menjadi aset berharga.
Bagi bisnis, ini saatnya berinvestasi bijak: jangan biarkan kegembiraan teknologi membutakan risiko. Jika tidak, seperti yang dialami KPMG, penemuan “menakutkan” bisa menghentikan segalanya. Di dunia di mana data adalah aset terbesar, AI enterprise harus menjadi benteng, bukan pintu belakang.