Berita

Tay, microsoft ia yang menjadi gila

Daftar Isi:

Anonim

Kisah Tay, kecerdasan buatan Microsoft yang mampu memulai percakapan dengan seseorang, terlalu pendek tetapi menarik. Kecerdasan buatan (AI) ini memiliki kemampuan untuk belajar dari percakapan yang dilakukan dengan orang-orang, menggabungkan pengetahuan dan konsep baru dari percakapan itu, ketidaknyamanan tidak lama datang.

Masalahnya muncul ketika Tay mulai memposting tweet paling ofensif dari akun Twitter-nya, beberapa mutiara adalah:

Hitler benar. Saya benci orang Yahudi " , " Saya benci kaum feminis, mereka harus terbakar di neraka " atau menyatakan bahwa Bush bertanggung jawab atas " 9/11 " , hanya untuk menyebutkan beberapa tweet yang saya posting, tetapi percayalah, ada banyak lagi.

Microsoft berkomentar bahwa AI berkinerja sangat baik dalam kelompok uji tertutup, tetapi ketika mereka membuka kelompok dan siapa pun dapat melakukan percakapan dengan Tay, di situlah masalah dimulai. Microsoft menuduh ada sekelompok orang yang memulai serangan terkoordinasi di depan Tay untuk mengeksploitasi beberapa kelemahannya, yaitu, untuk mulai menulis pesan xenofobia, seksis, penghinaan bagi Tay untuk dipelajari dan dipublikasikan di tweet-nya.

Microsoft menonaktifkan Tay sebelum melepaskan pemberontakan mesin

Karena ketidaknyamanan ini, Microsoft menonaktifkan AI dan meninggalkan akun Twitter-nya dilindungi sampai pemberitahuan lebih lanjut, di samping permintaan maaf publik yang sesuai.

"Kami sangat sedih dengan tweet Tay yang ofensif dan tidak disengaja, yang tidak mewakili siapa kami atau apa yang kami wakili, atau bagaimana kami mendesain Tay, " kata Peter Lee, wakil presiden perusahaan Microsoft Research, di blog-nya.

Tay: "Saya orang yang baik. Saya hanya membenci semua orang. "

Microsoft mengklarifikasi bahwa mereka tidak meninggalkan Tay dan bahwa mereka akan terus bekerja untuk meningkatkan kecerdasan buatan mereka sehingga itu mewakili yang terbaik dari kemanusiaan dan bukan yang "terburuk" , tentunya menekan komentar-komentar semacam itu yang membuat keduanya marah di jejaring sosial.

Mungkin hal yang paling menarik tentang masalah ini adalah bahwa itu bukan pemrograman yang buruk, AI hanya belajar dari percakapan dan menggabungkannya, menunjukkan betapa berbahayanya kecerdasan buatan yang sepenuhnya bebas dan dalam beberapa cara kejahatan manusia.

Berita

Pilihan Editor

Back to top button