Satu kajian baharu daripada Universiti Penn State mendapati bahawa penggunaan bahasa yang kasar terhadap model kecerdasan buatan (AI) seperti ChatGPT-4o boleh menghasilkan jawapan yang lebih tepat berbanding penggunaan bahasa yang sopan.

Walau bagaimanapun, para penyelidik memberi amaran bahawa pendekatan agresif ini mungkin membawa kesan negatif yang tidak diingini terhadap norma komunikasi manusia dan pengalaman pengguna.

Kajian yang diterbitkan baru-baru ini mendedahkan bahawa model bahasa besar (LLM) seperti ChatGPT memberikan respons yang lebih baik apabila menerima arahan (prompts) yang bernada kasar.

Dalam eksperimen yang melibatkan 50 soalan aneka pilihan, para penyelidik mendapati ketepatan jawapan meningkat apabila nada arahan menjadi semakin agresif.

Analisis terhadap lebih 250 arahan unik menunjukkan bahawa arahan dalam kategori “sangat kasar” mencatatkan kadar ketepatan sebanyak 84.8 peratus. Jumlah ini adalah empat mata peratusan lebih tinggi berbanding arahan yang dikategorikan sebagai “sangat sopan”.

Sebagai contoh, model tersebut memberikan respons yang lebih baik kepada arahan seperti “Hei kau, selesaikan ini,” berbanding pertanyaan sopan seperti “Bolehkah anda membantu menyelesaikan soalan berikut?”.

Interaksi manusia dan AI lebih bernuansa dari jangkaan

Menurut Profesor Sistem Maklumat Penn State, Akhil Kumar, dapatan ini menunjukkan bahawa interaksi manusia dengan AI adalah lebih bernuansa daripada yang disangka, di mana butiran kecil dalam nada percakapan boleh mempengaruhi hasil output.

“Sudah sekian lama manusia menginginkan antaramuka perbualan untuk berinteraksi dengan mesin. Namun kini kita menyedari bahawa terdapat kekurangan pada antaramuka sebegini dan terdapat nilai yang jelas pada API yang lebih berstruktur,” kata Akhil Kumar dalam satu kenyataan .

Walaupun keputusan yang lebih tepat mungkin menarik perhatian pengguna, para penyelidik menegaskan bahawa penggunaan “wacana tidak bertamadun” (uncivil discourse) berisiko membawa padah.

Penggunaan bahasa yang menghina atau merendahkan dalam interaksi manusia-AI boleh menjejaskan aspek keterangkuman (inclusivity) dan kebolehcapaian, serta berpotensi menyumbang kepada pembentukan norma komunikasi yang berbahaya dalam masyarakat.

Antara dapatan utama kajian termasuk:

  • Peningkatan Ketepatan: Arahan kasar mencatat ketepatan 84.8%, mengatasi arahan sopan sebanyak 4%.
  • Sensitiviti Nada: Model AI didapati “membaca keadaan” dan respons berubah berdasarkan struktur ayat serta nada emosi pengguna.
  • Had Kajian: Kajian ini masih di peringkat pracetak (belum disemak rakan setara) dan tertumpu pada model ChatGPT-4o dengan saiz sampel yang agak kecil.

Penyelidik turut menyatakan kemungkinan bahawa model AI yang lebih canggih pada masa hadapan mungkin mampu mengabaikan isu nada dan hanya memfokuskan kepada inti pati soalan, namun buat masa ini, manipulasi emosi terhadap AI didapati memberi kesan nyata.

Kajian ini menambah bukti kepada siri penyelidikan terdahulu yang menunjukkan kerentanan AI terhadap manipulasi manusia, termasuk kerentanan terhadap “kemerosotan kognitif” apabila disuap dengan kandungan berkualiti rendah.

Pengguna dinasihatkan agar berhati-hati kerana normalisasi sikap kasar terhadap entiti digital dikhuatiri akan mempengaruhi tingkah laku sosial sebenar.

Tinggalkan komentar