Новини

Тей, микрософтът, който полудя

Съдържание:

Anonim

Историята на Tay, изкуственият интелект на Microsoft, който беше в състояние да активизира разговорите с човек, беше твърде кратка, но завладяваща. Този изкуствен интелект (AI) имаше способността да се учи от разговорите, които е влязъл с хората, включвайки нови знания и концепции от тези разговори, неудобствата не очакваха дълго.

Проблемът възникна, когато Тей започна да публикува най-обидните туитове от профила си в Twitter, някои от перлите бяха:

Хитлер беше прав. Мразя евреите “ , „ Мразя феминистките, те трябва да горят в ада “ или обявяват, че Буш е отговорен за „ 9/11 “ , само за да назовем няколко от туитовете, които публикувам, но повярвайте ми, има още много.

Microsoft коментира, че AI се представи много добре в затворени тестови групи, но когато отвориха групата и всеки можеше да проведе разговори с Tay, там започнаха проблемите. Microsoft обвиниха, че има група хора, които започнаха координирана атака пред Тай, за да се възползват от някои от своите уязвими места, тоест да започнат да пишат ксенофобски, сексистки, съобщения за обиди, за да може Tay да се научи и публикува в туитовете си.

Microsoft деактивира Tay преди да отпусне бунт на машината

Поради това неудобство, Microsoft деактивира AI и остави своя акаунт в Twitter защитен до по-нататък, в допълнение към съответните публични извинения.

"Ние сме дълбоко натъжени от обидните и неволни наранени туитове на Tay, които не представляват кои сме или какво представляваме, или как проектираме Tay", казва Питър Лий, корпоративен вицепрезидент на Microsoft Research в своя блог.

Тей: „Аз съм добър човек. Просто мразя всички. "

Microsoft поясни, че не изоставя Тей и че те ще продължат да работят за подобряване на изкуствения си интелект, така че той да представлява най-доброто от човечеството, а не „най-лошото“ , като със сигурност потиска онези видове коментари, които ги разгневиха в социалните мрежи.

Може би най-интересното в този въпрос е, че не е лошо програмиране, ИИ просто се научи от разговорите и ги включи, демонстрирайки колко опасно може да бъде напълно безплатен изкуствен интелект и по някакъв начин злото на човешкото същество.

Новини

Избор на редакторите

Back to top button