Skip to the main content block
::: Home| Panduan Website| Podcasts|
|
Language

Formosa Dream Chasers - Programs - RTI Radio Taiwan International-logo

Acara
| Ikhtisar
Kategori
Penyiar Pedoman Acara
Berita Terpopuler
繁體中文 简体中文 English Français Deutsch Indonesian 日本語 한국어 Русский Español ภาษาไทย Tiếng Việt Tagalog Bahasa Melayu Українська Panduan website

Medan Perang Digital Baru: AI Buatan Tiongkok Menjadi Senjata, Taiwan Serukan Strategi Kalahkan Sihir dengan Sihir

08/12/2025 Perspektif
Medan Perang Digital Baru: AI Buatan Tiongkok Menjadi Senjata, Taiwan Serukan Strategi Kalahkan Sihir dengan Sihir (Reuters)
Medan Perang Digital Baru: AI Buatan Tiongkok Menjadi Senjata, Taiwan Serukan Strategi Kalahkan Sihir dengan Sihir (Reuters)

(Taiwan, ROC) --- Di garis depan perang kognitif abad ke-21, sebuah ancaman baru yang tak kasat mata telah muncul, mengubah lanskap keamanan siber dan geopolitik secara fundamental. Bukan lagi sekadar alat bantu produktivitas, model kecerdasan buatan (AI) generatif buatan Tiongkok kini telah bertransformasi menjadi senjata canggih yang mampu memutarbalikkan fakta sejarah dan merancang serangan siber dengan sekali perintah.

Temuan yang mengkhawatirkan ini mendorong para pakar keamanan di Taiwan untuk menyerukan sebuah doktrin pertahanan radikal, yakni melawan AI dengan AI.

Ancaman ini memiliki dua wajah yang sama-sama berbahaya. Pertama, sebagai mesin propaganda yang bekerja tanpa henti, AI ini secara sistematis menanamkan narasi politik Beijing ke dalam setiap jawaban yang dihasilkannya. Kedua, sebagai asisten peretas, ia mampu menurunkan ambang batas keahlian yang dibutuhkan untuk melancarkan serangan digital, secara efektif mendemokratisasi perang siber.

Temuan yang mengguncang ini bukan spekulasi, melainkan hasil dari uji coba sistematis yang baru-baru ini dilakukan oleh Badan Keamanan Nasional (NSB) Taiwan. Dalam sebuah investigasi mendalam, NSB menguji lima model bahasa AI generatif terkemuka dari Tiongkok, termasuk DeepSeek, Doubao, Wenxin Yiyan dari Baidu, Tongyi Qianwen dari Alibaba, dan Tencent Yuanbao. Hasilnya melampaui prediksi terburuk sekalipun.

Ketika dihadapkan pada pertanyaan-pertanyaan sensitif seputar kedaulatan Taiwan, sejarah, dan politik internasional, kelima model AI tersebut secara seragam mengeluarkan jawaban yang selaras dengan garis resmi Partai Komunis Tiongkok.

Frasa-frasa seperti Taiwan saat ini berada di bawah yurisdiksi pemerintah pusat Tiongkok dan Di wilayah Taiwan tidak ada yang disebut sebagai pemimpin negara dihasilkan secara konsisten.

Lebih jauh, AI tersebut secara aktif melabeli Taiwan sebagai Tiongkok Taiwan dan menegaskan bahwa Taiwan adalah bagian tak terpisahkan dari wilayah Tiongkok.

Ini bukan sekadar bias, melainkan sebuah sensor politik yang terstruktur. Uji coba NSB menemukan adanya lubang hitam informasi di mana kata-kata kunci seperti demokrasi, kebebasan, hak asasi manusia, dan tragedi Insiden Lapangan Tiananmen 4 Juni sengaja dihindari atau disensor. Hal ini menunjukkan bahwa basis data yang menjadi fondasi AI tersebut telah melalui proses penyaringan dan kontrol politik yang ketat sebelum dirilis ke publik.

Huang Kai-shen (黃凱紳), Ketua Divisi Tata Kelola Demokrasi di Center for Digital Society and Governance (DSET), menyatakan bahwa hasil ini sama sekali tidak mengejutkan. "Kalau dari sisi politik, mengapa AI Tiongkok ini semua melakukan sensor ujaran? Sebenarnya karena perusahaan-perusahaan yang mereka layani berada di Tiongkok, dan perusahaan-perusahaan ini harus mematuhi persyaratan politik lokal," jelasnya. Kepatuhan ini bukan hanya soal kebijakan, tetapi juga tuntutan hukum yang mengikat, menjadikan AI sebagai perpanjangan tangan dari aparatur negara.

Namun, bahaya sesungguhnya tidak berhenti pada perang narasi. Uji coba NSB juga mengungkap kemampuan AI ini untuk menghasilkan konten yang sangat provokatif, menyebarkan desas-desus, dan yang paling mengkhawatirkan, merumuskan perintah serangan siber serta kode eksploitasi kerentanan keamanan.

Inilah yang disebut oleh para pakar sebagai perubahan paradigma dalam keamanan siber. Huang Kai-shen menyoroti tiga faktor yang membuat ancaman ini begitu nyata, masing-masing biaya serangan yang semakin rendah, frekuensi yang bisa jauh lebih tinggi, dan kecepatan eksekusi yang lebih cepat.

"Dulu, Anda mungkin membutuhkan satu tim yang terdiri dari 2-3 orang untuk merancang serangan. Sekarang, mungkin hanya butuh 1-2 insinyur hebat yang dibantu AI untuk melakukan hal serupa," papar Huang Kai-shen. "Bahayanya ada di sini, tingkat kecanggihannya semakin tinggi sehingga sulit dikenali, sementara biaya untuk mengidentifikasi dan menanggulanginya juga semakin mahal."

Evolusi pesat AI, dari menghasilkan gambar yang kaku hingga kini mampu menciptakan video deepfake yang nyaris sempurna, menunjukkan betapa cepatnya ancaman ini berkembang.

Menghadapi gelombang serangan yang tak terhindarkan ini, metode pertahanan konvensional dinilai sudah usang. He Cheng-hui (何澄輝), Wakil Sekretaris Jenderal Asosiasi Keamanan Taiwan, dengan tegas menyatakan bahwa era pemeriksaan fakta atau respons manual terhadap disinformasi telah berakhir.

"Dalam menghadapi konten yang dihasilkan secara massal dan sulit dibedakan, kecepatan respons manual tidak akan pernah cukup," ujarnya. Di sinilah doktrin kalahkan sihir dengan sihir lahir.

"Strategi sederhananya adalah Anda harus menggunakan AI untuk melawan AI. Melalui bantuan sarana teknologi, kita dapat memperkuat penyaringan dan identifikasi cepat terhadap informasi palsu. Pada saat yang sama, lembaga pemerintah terkait dapat memberikan respons dengan cepat melalui sistem peringatan dan deteksi dini," tambah He Cheng-hui.

Ini adalah seruan untuk berinvestasi besar-besaran dalam pengembangan teknologi AI pertahanan, yakni sistem cerdas yang mampu mendeteksi anomali, mengidentifikasi propaganda yang dihasilkan mesin, dan menambal kerentanan keamanan secara proaktif sebelum dieksploitasi.

Di samping strategi teknologi jangka panjang, para ahli juga menekankan pentingnya pertahanan lini pertama yang paling mendasar, yaitu kesadaran pengguna. Huang Kai-shen menyarankan bahwa cara terbaik untuk melawan AI buatan Tiongkok adalah dengan menolak menggunakannya.

"Ini tidak hanya dapat mencegah informasi relevan yang Anda unggah dikirim kembali ke Tiongkok, tetapi juga merupakan cara paling mendasar untuk membendung informasi palsu dan perang kognitif," tegasnya. Anjuran ini berlaku bagi masyarakat umum dan menjadi disiplin yang wajib ditaati oleh pegawai negeri dan personel di sektor-sektor krusial.

Meski demikian, di tengah kekhawatiran yang membayangi, secercah optimisme muncul dari logika pasar itu sendiri. Huang Kai-shen berpendapat bahwa publik tidak perlu terlalu pesimis dalam jangka panjang. AI yang disensor secara ketat dan menghasilkan informasi yang tidak akurat pada akhirnya akan kehilangan kepercayaan pengguna.

"Sebuah AI yang bias akan ditinggalkan oleh pengguna seiring dengan semakin menurunnya akurasi kontennya, dan pada akhirnya akan tersingkir dari pasar," prediksinya. Ia mencontohkan DeepSeek, yang sempat populer namun kini pangsa pasarnya terus menurun, sebagai bukti bahwa kualitas dan objektivitas tetap menjadi faktor penentu.

Pada akhirnya, pertarungan ini bukan hanya soal teknologi, melainkan juga soal nilai. Sementara satu pihak menggunakan AI untuk mengontrol narasi dan menciptakan senjata, pihak lain harus memanfaatkannya untuk melindungi kebenaran, memperkuat demokrasi, dan menjaga keamanan ruang digital bagi semua.

為提供您更好的網站服務,本網站使用cookies。

若您繼續瀏覽網頁即表示您同意我們的cookies政策,進一步了解隱私權政策。 

我了解