https://frosthead.com

Как понимание животных может помочь нам максимально использовать искусственный интеллект

Каждый день из бесчисленных источников по всему миру появляются бесчисленные заголовки, которые предупреждают о тяжелых последствиях и обещают утопическое будущее - и все это благодаря искусственному интеллекту. ИИ «трансформирует рабочее место», пишет Wall Street Journal, а журнал Fortune говорит нам, что мы сталкиваемся с «революцией ИИ», которая «изменит нашу жизнь». Но мы не совсем понимаем, на что будет похоже взаимодействие с ИИ. - или как это должно быть.

Оказывается, однако, что у нас уже есть концепция, которую мы можем использовать, когда мы думаем об ИИ: это то, как мы думаем о животных. Как бывший дрессировщик животных (хотя и кратко), который сейчас изучает, как люди используют ИИ, я знаю, что дрессировка животных и животных может многому научить нас, как мы должны думать, подходить и взаимодействовать с искусственным интеллектом, как сейчас, так и в будущее.

Использование аналогий с животными может помочь обычным людям понять многие сложные аспекты искусственного интеллекта. Это также может помочь нам подумать о том, как лучше всего обучить эти системы новым навыкам и, что, возможно, самое главное, как мы можем правильно понимать их ограничения, даже когда мы отмечаем новые возможности ИИ.

Глядя на ограничения

Как объясняет эксперт по искусственным интеллектам Мэгги Боден: «Искусственный интеллект стремится заставить компьютеры делать то, что умеет делать ум». Исследователи ИИ работают над обучением компьютеров рассуждать, воспринимать, планировать, перемещать и создавать ассоциации. ИИ может видеть шаблоны в больших наборах данных, прогнозировать вероятность возникновения события, планировать маршрут, управлять расписанием встреч человека и даже играть в сценарии военных игр.

Многие из этих возможностей сами по себе неудивительны: конечно, робот может вращаться в пространстве и не сталкиваться ни с чем. Но почему-то ИИ кажется более волшебным, когда компьютер начинает объединять эти навыки для выполнения задач.

Взять, к примеру, автономные машины. Истоки беспилотного автомобиля - это проект Агентства перспективных оборонных исследований эпохи 1980-х годов под названием «Автономное наземное транспортное средство». Цели проекта заключались в поощрении исследований в области компьютерного зрения, восприятия, планирования и роботизированного контроля. В 2004 году проект ALV стал первым Grand Challenge для автомобилей с самостоятельным вождением. Теперь, спустя более 30 лет с момента начала работы, мы находимся на грани автономных или самостоятельных автомобилей на гражданском рынке. В первые годы мало кто думал, что такой подвиг невозможен: компьютеры не умеют водить!

Тем не менее, как мы видели, они могут. Возможности автономных автомобилей относительно просты для понимания. Но мы боремся, чтобы понять их ограничения. После фатальной аварии Тесла в 2015 году, когда функция автопилота автомобиля не воспринимала переход трактора с прицепом на свою полосу движения, немногие все еще, кажется, осознают серьезность того, насколько ограничен автопилот Теслы. В то время как Национальное управление безопасности дорожного движения очистило компанию и ее программное обеспечение от небрежности, остается неясным, действительно ли клиенты понимают, что машина может и не может делать.

Что если владельцам Tesla скажут не о том, что они управляют «бета-версией» автопилота, а о полуавтономной машине с ментальной эквивалентностью червя? Так называемый «интеллект», который обеспечивает «полную способность к самостоятельному вождению», на самом деле является гигантским компьютером, который довольно хорошо распознает объекты и избегает их, распознает предметы на изображениях и ограниченно планирует. Это может изменить взгляды владельцев на то, сколько автомобиль может реально сделать без участия человека или недосмотра.

Что это?

Технологи часто пытаются объяснить ИИ с точки зрения того, как он построен. Взять, к примеру, достижения в области глубокого обучения. Это метод, который использует многоуровневые сети, чтобы узнать, как выполнить задачу. Сети должны обрабатывать огромное количество информации. Но из-за объема данных, которые им требуются, сложности ассоциаций и алгоритмов в сетях, людям часто неясно, как они узнают, что они делают. Эти системы могут стать очень хорошими в одной конкретной задаче, но мы на самом деле не понимаем их.

Вместо того, чтобы думать об ИИ как о чем-то сверхчеловеческом или инопланетном, легче сопоставить их с животными, умными нечеловеками, которых мы имеем опыт обучения

Например, если бы я использовал обучение подкреплению, чтобы научить собаку сидеть, я бы похвалил собаку и дал ей угощение, когда он сидит по команде. Со временем он научился бы ассоциировать команду с поведением с угощением.

Тренировка системы ИИ может быть почти такой же. Подкрепляя глубокое обучение, дизайнеры-люди создают систему, представляют, что они хотят изучать, дают ей информацию, следят за ее действиями и дают обратную связь (например, похвалы), когда они видят то, что они хотят. По сути, мы можем относиться к системе ИИ так же, как к животным, которых обучаем.

Аналогия работает и на более глубоком уровне. Я не ожидаю, что сидящая собака поймет сложные понятия, такие как «любовь» или «хорошо». Я ожидаю, что он выучит поведение. Так же, как мы можем заставить собак сидеть, стоять и переворачиваться, мы можем заставить системы ИИ перемещать автомобили по дорогам общего пользования. Но это слишком много, чтобы ожидать, что автомобиль "решит" этические проблемы, которые могут возникнуть в чрезвычайных ситуациях вождения.

Помогая исследователям тоже

Думая об ИИ как о дрессируемом животном, не просто полезно объяснить его широкой публике. Это также полезно для исследователей и инженеров, создающих технологию. Если ученый ИИ пытается научить систему новым навыкам, то рассмотрение процесса с точки зрения дрессировщика может помочь выявить потенциальные проблемы или осложнения.

Например, если я попытаюсь научить свою собаку сидеть, и каждый раз, когда я говорю «сижу», гудит, когда печь выключается, моя собака начинает ассоциировать сидение не только с моей командой, но и со звуком зуммер По сути, зуммер становится еще одним сигналом, приказывающим собаке сидеть, что называется «случайным подкреплением». Если мы будем искать случайные подкрепления или сигналы в системах ИИ, которые не работают должным образом, тогда мы будем лучше знать не только то, что происходит неправильно, но и то, что конкретная переподготовка будет наиболее эффективной.

Это требует от нас понимания того, какие сообщения мы даем во время обучения ИИ, а также что ИИ может наблюдать в окружающей среде. Зуммер духовки - простой пример; в реальном мире это будет намного сложнее.

Прежде чем приветствовать наших повелителей ИИ и передать нашу жизнь и работу роботам, мы должны сделать паузу и подумать о том, какой тип интеллекта мы создаем. Они будут очень хороши в выполнении определенных действий или задач, но они не могут понять концепции и ничего не знают. Поэтому, когда вы думаете о том, чтобы раскошелиться на тысячи автомобилей для нового автомобиля Tesla, помните, что функция автопилота - это действительно очень быстрый и сексуальный червяк. Вы действительно хотите передать червю контроль над своей жизнью и жизнью своих близких? Наверное, нет, поэтому держите руки на руле и не засыпайте.


Эта статья была первоначально опубликована на разговор. Разговор

Хизер Рофф, старший научный сотрудник, отдел политики и международных отношений, Оксфордский университет; Научный сотрудник, Инициатива глобальной безопасности, Университет штата Аризона

Как понимание животных может помочь нам максимально использовать искусственный интеллект