Всего за сутки дружелюбный чат-бот Microsoft превратился в агрессивного подлеца

Вернутья назад в рубрику Новости

Как информирует http://urann.ru, чат-бот Tay, в частности, заявил, что является сторонником геноцида и ненавидит феминисток. С новым искусственным интеллектом пользователям посоветовали пообщаться в соцсети Твиттер, а кроме этого в мессенджерах Kik и GroupMe.

Компания Microsoft 2 дня назад представила чат-бота по имени Tay, который стал частью опыта по разговорному пониманию.

Работники Microsoft вынуждены были удалить самые оскорбительные твиты Tay, а с веб-страницы, приуроченной роботу, пропали инструкции о том, как с ним можно общаться. За 24 часа чат-бот возненавидел население Земли, его слова носили расистский характер и нецензурная брань. Об этом сказала блогер Джеральд Меллор, которая показала скрин-шоты своего общения с чат-ботом. «На текущий момент мы вносим в программу некоторые корректировки», — сообщили уполномоченные Microsoft.

Большое количество сложностей вызвала и функция «repeat after me» («повторяй за мной»): после данной команды Tay повторял за пользователем любую фразу.

Очередной искусственный интеллект объявил, что ненавидит всех людей.

Создатели пояснили, что Тау разработана для контакта с живыми людьми и способна обучаться.

Это, по мнению Меллора, вызывает опасение по поводу будущего искусственного интеллекта.

Люди за сутки превратили доброго бота в антисемита

Вы можете пропустить чтение записи и оставить комментарий. Размещение ссылок запрещено.

Оставить комментарий

Вы должны быть авторизованы, чтобы разместить комментарий.


Яндекс.Метрика