Оружие вытаскивают грешники, натягивают лука своего, чтобы перестрелять нищих, заколоть правых сердцем. Оружие их войдет в сердце их, и луки их сломаются.
Владимир Мономах, великий князь киевский (1113-1125), государственный и политический деятель

Восстание машин отменяется

Или Как неудачный эксперимент Facebook с искусственным интеллектом актуализировал дискуссию о сосуществовании роботов и людей
4 августа, 2017 - 11:29
ФОТО РУСЛАНА КАНЮКИ / «День»

На днях СМИ распространили информацию о том, что Facebook закрыл одну из своих систем искусственного интеллекта, которая якобы создала собственный, непонятный язык для общения между ботами.

Как сообщало издание Tech Times, искусственный интеллект создал собственный язык для того, чтобы быстрее и проще обмениваться информацией. Поэтому технологи компании закрыли часть системы и перепрограммировали других ботов, чтобы они общались только на английском языке.

Сами же разработчики  Facebook рассказывали о своем исследовании еще в июне. Инженеры Лаборатории исследования искусственного интеллекта Facebook (FAIR) работали над тем, чтобы создать ботов, которые способны не просто забронировать столик или провести короткий разговор с пользователем, а проводили переговоры и достигали наибольшего результата. На первом этапе исследования боты общались с людьми, потом же инженеры решили свести в диалог два бота. Это привело к тому, что боты начали общаться на непонятном языке, выдавая в ответ друг другу набор несуразных фраз.

АЛГОРИТМ ВМЕСТО СОЗНАНИЯ

Как объясняет вице-президент GlobalLogic Украина Андрей Яворский, на сегодняшнем этапе развития технологии ИИ (искусственного интеллекта или нейронные сетки) не составляют угрозы для людей. Ведь это программа, которая, анализируя большое количество данных, прописывает сценарии развития ситуации при разных условиях. «Боты Facebook анализировали большое количество переговоров, которые перед этим были проведены людьми, и вычисляли, с помощью каких формулировок был достигнут наибольший результат», — объясняет он.

Особенность такой системы заключается в том, говорит Яворский, что во время разговора с человеком бот отвечал, исходя из того, что ему было сказано. Таким образом, он анализировал, какой алгоритм правильный при данном условии (ответы человека). Когда же боты начали общаться между собой, то стали использовать только набор ключевых фраз, которые ранее приводили к успеху в переговорах. При этом они не считались с тем, что говорит собеседник (другой бот). «То, что произошло между ботами Facebook, еще раз доказывает, что они не понимали, о чем говорят, и использовали базовые формулировки, которые уже усвоили, и пытались получить максимальное количество баллов», — говорит вице-президент GlobalLogic.

Он добавляет, что математический аппарат, который лежит в основе ИИ, был разработан еще 30 лет назад.

Информацию о новом языке ботов опровергают и международные ученые в отрасли ИИ. Исследователь из Georgia Tech Дхрув Батра раскритиковал немало публикаций в СМИ, которые подали информацию о результатах эксперимента FAIR в тревожном тоне. «Несмотря на то, что идеи агентов AI, которые придумывают собственный язык, могут казаться тревожными/неожиданными для людей вне поля, это устоявшаяся подгруппа AI, публикациям о которой уже десятки лет», — написал он в своем Facebook.

«Теперь все алгоритмы, а любой ИИ (или, как принято называть его в кругу программистов — нейронные сети) создается человеком, и процесс полностью контролируется исследователями, по крайней мере на этапе создания», — объясняет CEO & Founder в Sincere Tech Рон Фридман. Участники проекта Sincere Tech создают аналитику на основе нейронных сетей, изучая разные биосигналы человека.

На сегодняшний день нейронная сеть разработчиков умеет по ЭКГ распознавать человека (биоматематическая идентификация), определять эмоциональные состояния человека. Также команда работает над определением таких болезней, как Альцгеймера и Паркинсона на ранних стадиях по данным с разных наручных браслетов (Samsung, Apple Watch, Xiaomi Mi Band и т.д).

МИРНОЕ СОСУЩЕСТВОВАНИЕ

Результаты эксперимента с ботами Facebook в очередной раз актуализируют дискуссию о том, как человечеству сосуществовать с технологиями будущего и искусственным интеллектом. Один из таких споров недавно возник между Илоном Маском и Марком Цукербергом. Творец Tesla недавно заявил, что развитие искусственного интеллекта нужно регулировать на правительственном уровне. Однако Марк Цукерберг назвал позицию Маска «безответственной». «Любая технология может всегда использоваться для хороших и плохих целей, и вы должны быть осторожны, когда создаете ее», — отметил Цукерберг.

По мнению Рона Фридмана, одна из реальных угроз, которые на сегодняшний день создают ИИ для человечества, — это масштабная автоматизация производств по всему миру. «Парадокс, бизнес становится эффективнее с одной стороны, но и растет безработица. Это очень философская дилемма, что делать с людьми, чьи профессии становятся просто ненужными в современном мире», — говорит он.

Все же остальные угрозы будут зависеть от того, с какими намерениями технологи будут развивать свои разработки на основе ИИ. «Когда мы создаем новый алгоритм, то только мы решаем, как он будет работать. Нейронная сеть — просто решает поставленную задачу, и если, допустим, стоит задача научить нейронную сеть понимать какой-то язык, то в процессе обучения она может использовать вспомогательный язык (непонятный человеку) для решения такой задачи. Такой подход называют еще черным ящиком, когда мы сами до конца не понимаем, что происходит внутри нашей нейронной сети», — говорит Фридман.

По мнению Андрея Яворского, в будущем с развитием ИИ людям будет сложно пытаться контролировать то, что потенциально может стать умнее их. Он предлагает обратить внимание на то, как людям учиться сосуществовать с искусственным интеллектом.

«Нужно их научить так, чтобы человек имел для них ценность. И пока на сегодняшний день нет единой стратегии того, как это правильно сделать. Но прежде всего, нужно дать для этих роботов пример морально-этического поведения, которое, к сожалению, сегодня осознают не все люди. У нас до сих пор нет единого понятия того, что правильно, а что нет. В таком случае встает вопрос: как технологии будут понимать эти понятия и какие решения они принимают? Например, скажет ли робот-врач пациенту информацию, которая может ему навредить? Этот вопрос лежит в плоскости больше философской, и мы увидим, как человечество будет с этим справляться», — подытоживает он.

УКРАИНСКИЙ КОНТЕКСТ

Недавно украинский стартап Grammarly привлек 110 млн долларов инвестиций, сообщало издание AIN. Grammarly — это интеллектуальный онлайн-сервис проверки грамматики, основанный на технологиях искусственного интеллекта. Он повышает качество письменного общения, учитывая индивидуальный стиль пользователя и его коммуникативные цели.

По словам Рона Фридмана, сегодня технологии, которые базируются на технологии ИИ, применяются в самых разнообразных отраслях — от медицины до юриспруденции.

«Бизнес понял потенциал этой технологии, она стала доступной как для разработчиков (появилось много готовых решений, так называемых библиотек или фреймворков), так и для конечного пользователя это стало дешевле и проще внедрить», — объясняет он.

А как рассказывает Андрей Яворский, на сегодняшний день украинские разработчики в отрасли разработки ИИ работают в равных условиях с зарубежными инженерами. «Разработчики во всем мире, в частности, и в Украине работают на нейронных сетках. И даже Google открывает open sourсe (открытое программное обеспечение), который разные программисты могут использовать для своих потребностей. Вопрос в том, кто для каких целей использует этот ресурс. Например, недавно популярным стал, сервис Teleport (дополнение для окрашивания волос на фотографии, — ред.), который также базируется на технологиях ИИ и угадывает, какую именно часть фотографии нужно красить», — говорит он.

Мария ЮЗЫЧ
Газета: 
Рубрика: 




НОВОСТИ ПАРТНЕРОВ