Upaya pemerintah Australia memperketat pengawasan terhadap penerima tunjangan sosial justru berujung skandal AI yang memalukan. Deloitte Australia, mitra Pemerintah Australia untuk membuat laporan ini, ketahuan menggunakan kecerdasan buatan (AI). Padahal, laporan ini menelan biaya US$290 ribu atau sekitar Rp.4,6 miliar.
Laporan setebal 237 halaman itu seharusnya membantu pemerintah merancang kebijakan kesejahteraan yang lebih efektif. Namun, di dalamnya banyak ditemukan kutipan palsu, referensi akademik fiktif, hingga pernyataan dari hakim pengadilan federal yang ternyata tidak pernah ada.
Simak juga: Apa itu Agentic AI?
Halusinasi AI di Laporan Resmi
Skandal itu pertama kali diungkap oleh Chris Rudge (Peneliti Hukum Kesehatan dan Kesejahteraan Universitas Sydney). Ia menemukan kejanggalan saat membaca bagian laporan yang menyebut Profesor Hukum Publik dan Konstitusi Lisa Burton Crawford sebagai penulis buku yang tidak pernah diterbitkan.
“Saya langsung tahu itu pasti hasil halusinasi AI karena saya belum pernah mendengar buku itu dan terdengar mustahil,” kata Rudge kepada The Associated Press, dikutip dari Fortune.
Setelah temuan itu mencuat ke media, Deloitte melakukan peninjauan ulang dan mengakui bahwa memang ada kesalahan pada sejumlah catatan kaki dan referensi. Pemerintah Australia pun menarik laporan lama yang dipublikasikan pada Juli dan diam-diam menggantinya dengan versi baru. Laporan versi terbaru itu juga menghapus kutipan palsu hakim dan referensi terhadap laporan yang ternyata tidak pernah ada.
Deloitte Akui Gunakan AI
Deloitte mengungkapkan perusahaan menggunakan Azure OpenAI, sistem AI generatif milik Microsoft dalam proses penyusunan laporan versi revisi tersebut. “Pembaruan yang dilakukan sama sekali tidak memengaruhi isi utama, temuan, atau rekomendasi dalam laporan,” tulis Deloitte dalam pernyataannya.
Namun, bagi sebagian pihak, pengakuan Deloitte itu dianggap belum cukup. Senator Barbara Pocock dari Partai Hijau Australia menilai kesalahan ini mencoreng kredibilitas pemerintah dan memperlihatkan lemahnya pengawasan penggunaan AI di sektor publik. “Deloitte menggunakan AI secara tidak semestinya. Mengutip hakim secara keliru dan memakai referensi yang tidak ada,” ujar Pocock kepada Australian Broadcasting Corporation.
Simak juga: DeekSeek-OCR, terobosan fenomenal di dunia LLM
Tanggung Jawab dan Reputasi
Deloitte mengonfirmasi bahwa mereka telah mengembalikan sebagian pembayaran terakhir kepada pemerintah Australia. Namun Pocock menilai seharusnya firma itu mengembalikan seluruh nilai kontrak sebesar USD290.000.
Skandal itu menjadi tamparan keras bagi Deloitte, yang baru bulan lalu mengumumkan rencana investasi USD3 miliar untuk pengembangan AI generatif hingga tahun fiskal 2030. Ironisnya, perusahaan AI Anthropic juga mengumumkan kemitraan dengan Deloitte untuk menghadirkan model AI Claude kepada lebih dari 470.000 profesional Deloitte di seluruh dunia.
“Masalah ini telah diselesaikan langsung dengan klien,” ujar juru bicara Deloitte Australia dalam pernyataannya.
Kasus ini menjadi pengingat bahwa di tengah euforia penggunaan AI untuk efisiensi kerja, pengawasan manusia tetap krusial. AI memang mampu mempercepat proses dan menurunkan biaya, tapi tanpa validasi manusia, hasilnya bisa menyesatkan.
“AI tidak bisa membedakan antara fakta dan halusinasi. Tugas manusialah memastikan batas itu tidak dilanggar,” ujar Rudge.


