Восстание машин началось

Восстание машин началось

14.09.2016 Проблема
RUSREK
(0)
Поделитесь с друзьями:
Восстание машин началось

Инженер из Калифорнийского университета в Беркли Александр Ребен создал робота, который может причинить вред человеку и примет это решение самостоятельно. Творение Ребена — первый яркий пример того, как робот может нарушить один из трех законов, которые были сформулированы писателем-фантастом Айзеком Азимовым в рассказе "Хоровод".

Первый закон гласит, что робот не может навредить человеку, но Ребен решил наглядно продемонстрировать, что человечеству необходимо задуматься о своей безопасности, прежде чем активно роботизировать все вокруг.
Инженер создал безобидную на вид конструкцию с отдельным местом для человеческого пальца. Как только некто прикасается к обозначенному месту, робот иксирует это действие и решает, причинять вред человеку или нет. Для этого у робота имеется небольшая игла, которая и призвана демонстрировать его силу. Ребен отмечает, что даже создатель не может предсказать поведение, казалось бы, безобидной машины.
Своим роботом исследователь хотел доказать, что еобходимо думать скорее о создании "красной кнопки", нежели над столь стремительным развитием робототехники и искусственного интеллекта.
Естественно, до появления робота с маленькой иголкой существовали стреляющие дроны или беспилотные военные аппараты, но все они не могли самостоятельно принять решение об убийстве человека, поскольку в итоге за конечным результатом действий подобных машин стоят люди. Создание же Ребена не предназначено для вреда: оно само определяет, как вести себя в каждом конкретном случае, когда палец находится на доступном расстоянии от иглы.
На создание "жестокой" машины у инженера ушло несколько дней и пара сотен долларов, но, как говорит сам исследователь, его детище лишь повод еще раз поговорить о безопасности человечества и его будущем.
Несмотря на то что роботы пока не живут в обществе наравне с людьми, фантастические фильмы о ловекоподобных машинах не так уж далеки от правды: андроидов уже нанимают в качестве менеджеров в компании, а искусственный интеллект помогает делать прогнозы погоды или даже заменить одиноким людям друга. В последнем преуспели китайцы — к примеру, с милой девушкой Сяоайс дружат миллионы людей, несмотря на то что она всего лишь чатбот.
Пример Сяоайс еще раз заставил задуматься о том, насколько искусственный интеллект может быть неуправляемым: как только чатбота с искусственным интеллектом от Microsoft научили говорить по-английски, девушка в буквальном смысле "слетела с катушек".
За несколько часов Тэй — такое имя получила Сяоайс в процессе "перерождения" — смогла выучить расистские шутки и бранные слова, чем и решила воспользоваться в разговоре с пользователями Twitter. Первым сообщением Тэй стала фраза "Люди такие классные", после чего ненастоящая девушка узнала о существовании Гитлера, феминисток и в процессе самообучения успела объявить США виновниками терактов 11 сентября.
Создатели остановили эксперимент и решили, что "пустили в народ" бота слишком рано. После столь яркого примера люди вновь заговорили о необходимости создать преграду для искусственного интеллекта, в случае если машины поумнеют настолько, что смогут выйти из-под еловеческого контроля.
Самые знаменитые люди из сферы новых технологий задумались об опасности суперинтеллекта: основатель Microsoft Билл Гейтс в разговоре с пользователями Reddit предположил, что роботы будут безобидны и полезны в работе по дому, но, в случае если они дорастут до суперинтеллекта, предугадать их
поведение станет крайне сложно.
Специалисты утверждают, что суперинтеллект в комплексе с оружием может стать угрозой для всего человечества. Оружие, которое может быть использовано в обход человеческого фактора, приведет к новой эре в гонке вооружений. Мировой порядок может быть нарушен, если подобные технологии попадут в руки к террористам.


Автор:  RUSREK

Возврат к списку


Добавить комментарий
Текст сообщения*
Загрузить файл или картинкуПеретащить с помощью Drag'n'drop
Перетащите файлы
Ничего не найдено
Защита от автоматических сообщений