Microsoft baru-baru ini mengeluarkan amaran mengenai ciri kecerdasan buatan (AI) baharunya di Windows 11, yang dikenali sebagai “Agentic AI” atau AI berasaskan ejen.
Syarikat teknologi gergasi itu mengakui bahawa walaupun teknologi ini mampu melakukan tugas secara autonomi, ia mempunyai risiko untuk “berhalusinasi”. Ia berpotensi memberikan maklumat yang salah serta terdedah kepada serangan siber baharu yang dikenali sebagai Cross-Prompt Injection Attacks (XPIA).
Ciri yang kini dalam fasa percubaan ini memerlukan pengguna memahami implikasi keselamatan sepenuhnya sebelum diaktifkan.
Risiko Halusinasi dan Tingkah Laku Tidak Dijangka
Menurut dokumen sokongan Microsoft, model AI ini menghadapi “batasan fungsi” yang ketara. Istilah “halusinasi” dalam konteks ini merujuk kepada kecenderungan AI untuk membuat andaian yang salah atau bertindak di luar jangkaan yang logik.
Ini bermakna AI tersebut mungkin melaksanakan tugas dengan cara yang tidak tepat atau memberikan hasil yang tidak berasaskan fakta sebenar. Ia boleh mengganggu produktiviti pengguna jika tidak dipantau.
Ancaman Serangan ‘Cross-Prompt Injection’ (XPIA)
Selain isu ketepatan, Microsoft turut mengetengahkan kerentanan keselamatan yang serius. Ejen AI ini dilaporkan terdedah kepada serangan XPIA, di mana kandungan berniat jahat yang tersembunyi dalam dokumen atau elemen antaramuka pengguna (UI) boleh memanipulasi dan “mengatasi” arahan asal ejen tersebut.
Menurut amaran Microsoft, “Ejen-ejen ini terdedah kepada serangan suntikan silang arahan (XPIA), di mana kandungan berniat jahat… boleh mengatasi arahan asal ejen.”
Ini bermakna penyerang boleh menggunakan dokumen yang kelihatan tidak berbahaya untuk mengarahkan AI melakukan tindakan yang tidak diingini pada komputer mangsa.
Langkah Keselamatan dan Ciri Percubaan
Bagi mengurangkan risiko ini, Microsoft telah memperkenalkan konsep “ruang kerja ejen” (agent workspace). Dalam persekitaran ini, ejen AI beroperasi di bawah akaun pengguna yang berasingan daripada profil utama pengguna untuk mengehadkan potensi kerosakan.
Microsoft menegaskan bahawa ciri ini adalah “eksperimental” dan tidak diaktifkan secara lalai (default). Pengguna perlu mengaktifkannya secara manual dan akan diberi amaran semasa proses persediaan mengenai risiko yang terlibat.
Ciri-ciri Utama Risiko AI Agentic:
- Halusinasi Data: Kemungkinan memberikan maklumat palsu atau membuat keputusan yang salah.
- Kerentanan XPIA: Terdedah kepada manipulasi melalui arahan tersembunyi dalam fail luaran.
- Tingkah Laku Tidak Stabil: Boleh bertindak secara tidak dapat diramal (erratic behavior).
- Status Percubaan: Tidak diaktifkan secara automatik; memerlukan kebenaran pengguna.
Walaupun integrasi AI ke dalam sistem operasi menjanjikan peningkatan produktiviti yang besar, pengakuan Microsoft ini menunjukkan bahawa teknologi ejen autonomi masih belum matang sepenuhnya dari aspek keselamatan dan kebolehpercayaan.
Pengguna, terutamanya di peringkat perusahaan, dinasihatkan untuk berhati-hati dan menilai risiko sebelum mengintegrasikan ciri eksperimental ini ke dalam aliran kerja harian mereka.













