Microsoft се извини за расистките туитове на своя чат робот
Тай бе предназначен за забавление на потребителите
Microsoft поднесе
своите извинения към потребителите, след като създаденият от компанията чат
робот Тай публикува в Twitter обидни думи и изображения. Те включваха подкрепа към Хитлер и геноцида.
Компанията пусна робота с изкуствен интелект в Twitter миналата седмица. Той бе предназначен за забавление на потребителите, но вместо това е бил подмамен да изрази своята подкрепа към Хитлер и геноцида чрез повтарящи се електронни съобщения.
Microsoft обяви, че не е предполагала, че някои потребители ще се опитат да измамят робота и да го накарат да туитне обидни думи. Въпреки това компанията се извини за случилото се. Тя обясни, че е създала робота, тъй като преди това е имала успех с подобен изкуствен интелект в Китай. Той е бил използван от 40 млн. души, които са водели разговори с него.
„Страхотният опит с XiaoIce ни накара да се запитаме: Може ли изкуствен интелект като този да бъде толкова пленяващ в крайно различна културна среда?“, пише Питър Лий, вицепрезидент в Microsoft, цитиран от Independent. “Тай, чат робот, създаден за хора на възраст между 18- и 24-годишна възраст в САЩ с цел забавление за хората , е нашият пръв опит да отговорим на този въпрос“.