6 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

OpenAI хочет создать всемогущественный ИИ

OpenAI хочет создать всемогущественный ИИ. Но в хорошем смысле

В одну из апрельских суббот пять мужчин возрастом от 19 до 26 лет уверенно вышли из облака пурпурного дыма в переделанном автосалоне в Сан-Франциско. Они сели за ряд компьютерных клавиатур, их громко приветствовала толпа из нескольких сотен человек. Спустя девяносто минут интенсивных щелчков мыши улыбки пятерки стали унылыми, а аплодисменты — утешительными. Команда OG, мировые чемпионы самой прибыльной в мире соревновательной игры Dota 2, проиграли две игры подряд команде ботов с искусственным интеллектом.

Этот результат стал примечательным, потому что сложные видеоигры математически сложнее настольных игр вроде шахмат или го. И все же, прислонившись к стене за кулисами, Сэм Альтман — генеральный директор исследовательского института OpenAI, который разработал этих ботов, испытал праздничное облегчение.

Искусственный интеллект против дотеров

«Мы все весьма нервничали тем утром — я думал, что шансы 60 на 40», говорит Альтман. Он стал CEO OpenAI в марте, после ухода с поста президента влиятельного инкубатора стартапов YCombinator. Чтобы преуспеть на новой должности, Альтману нужны были боты, которые не просто побеждают людей в видеоиграх — ему нужны были боты, которые лучше людей во всем.

Заявленная миссия OpenAI заключается в том, чтобы гарантировать, что от любого будущего ИИ, способного превзойти «людей в наиболее экономически выгодной работе» выиграет все человечество. Такие технологии — общий искусственный интеллект, «сильный» искусственный интеллект, или ОИИ (AGI) — пока даже на горизонте не маячат, но OpenAI утверждает, что и она, и другие стремительно прогрессируют. Организация показала, что может проводить исследования на уровне лучших в мире. И снискала обвинения в раздувании шумихи на тему ИИ, а также в фиксации на ОИИ и потенциальных угрозах искусственного интеллекта.

Читать еще:  Fairy Tail — Получает полную информацию перед Новым годом

По плану Альтмана, исследования OpenAI — и провокации — должны только набирать темп. Будучи прежде председателем совета директоров этой организации, он занял пост генерального директора после того, как помог перевести большую часть некоммерческого персонала в новую коммерческую компанию, надеясь привлечь инвесторов с миллиардами, необходимыми для формирования судьбы ИИ и человечества. Альтман говорит, что крупные технологические лаборатории в Alphabet и остальных компаниях должны испытывать давление со стороны коллег, не стремящихся увеличить свою акционерную стоимость. «Я не хочу быть в мире, в котором ОИИ создаст одна компания, захватит всю его ценность и будет принимать все решения», говорит он.

На мероприятии MIT в конце 2014 года генеральный директор Tesla Илон Маск описал исследования на тему ИИ как попытку «вызвать демона». Летом 2015 года он поговорил с Альтманом и несколькими другими за ужином и предложил создать исследовательскую лабораторию, независимую от технологического сегмента, которая направила бы ИИ в позитивное русло. В том же году была создана OpenAI, в которой оказались Альтман и Маск. В начале 2018 года Маск покинул совет директоров, сославшись на потенциальные конфликты с другими его ролями.

Кто публикует фейковые новости

Некоторые видные люди в области исследования ИИ были раздражены, включая главного по ИИ в Facebook Яна Лекуна. В своих постах на Facebook он защищал открытую публикацию исследований на тему ИИ и шутил, что людям стоило бы перестать заводить детей, поскольку однажды те будут публиковать фейковые новости.

Для некоторых этот эпизод подчеркнул, что миссия OpenAI не сильно отличается от других корпоративных или академических лабораторий. «Они проводят плюс-минус те же самые исследования, как и остальные, но хотят привлечь миллиарды долларов», говорит Захари Липтон, профессор машинного обучения в Университете Карнеги-Меллона. «Единственный способ сделать это — слегка покривить душой».

Альтман признает, что OpenAI, возможно, забила тревогу слишком рано, но говорит, что это лучше, чем опоздать. «Технологическая отрасль проделала не очень хорошую работу, пытаясь проявлять инициативу в отношении злоупотреблений», говорит он. Самоцензура необходима и самой OpenAI.

Читать еще:  Death end re;Quest 2 — Появится на ПК в 2020 году, но будет подвергнут цензуре

После поражения OG в прошлом месяце, дабы выразить сочувствие, OpenAI решила провести второй эксперимент, призванный продемонстрировать благоприятную сторону сверхчеловеческого ИИ. Эксперты в области Dota 2 и несколько новичков играли в командах вместе с ботами.

Программное обеспечение, которому не повезло стать партнерами нубов по команде, по большей части проявило сверхчеловеческое безразличие к помощи начинающему игроку. Вместо этого оно сосредоточилось на победе, следуя инстинктам, отточенным месяцами дорогостоящих тренировок.

Никто не знает, как сделать узконаправленный ИИ более гибким или какие компоненты могут понадобиться, чтобы сделать ОИИ большим, чем технологическая фантазия. Даже Альтман напуган масштабами проблемы. «У меня бывают дни, когда я верю, что все это произойдет, и дни, когда все это кажется несбыточной мечтой», говорит он.

Как думаете, получится у него? Давайте обсудим в нашем чате в Телеграме.

голоса
Рейтинг статьи
Ссылка на основную публикацию
Статьи c упоминанием слов: