Как информирует http://urann.ru, чат-бот Tay, в частности, заявил, что является сторонником геноцида и ненавидит феминисток. С новым искусственным интеллектом пользователям посоветовали пообщаться в соцсети Твиттер, а кроме этого в мессенджерах Kik и GroupMe.
Компания Microsoft 2 дня назад представила чат-бота по имени Tay, который стал частью опыта по разговорному пониманию.
Работники Microsoft вынуждены были удалить самые оскорбительные твиты Tay, а с веб-страницы, приуроченной роботу, пропали инструкции о том, как с ним можно общаться. За 24 часа чат-бот возненавидел население Земли, его слова носили расистский характер и нецензурная брань. Об этом сказала блогер Джеральд Меллор, которая показала скрин-шоты своего общения с чат-ботом. «На текущий момент мы вносим в программу некоторые корректировки», — сообщили уполномоченные Microsoft.
Большое количество сложностей вызвала и функция «repeat after me» («повторяй за мной»): после данной команды Tay повторял за пользователем любую фразу.
Очередной искусственный интеллект объявил, что ненавидит всех людей.
Создатели пояснили, что Тау разработана для контакта с живыми людьми и способна обучаться.
Это, по мнению Меллора, вызывает опасение по поводу будущего искусственного интеллекта.