https://frosthead.com

Что происходит, когда нас привлекает искусственный интеллект?

Искусственный интеллект прошел долгий путь со времен R2-D2. В наши дни большинство тысячелетий будут потеряны без умных систем GPS. Роботы уже перемещаются по полям сражений, и вскоре дроны могут доставлять пакеты Amazon к нашим порогам.

Сири может решить сложные уравнения и рассказать вам, как приготовить рис. Она даже доказала, что может даже отвечать на вопросы с чувством юмора.

Но все эти достижения зависят от пользователя, который задает направление ИИ. Что произойдет, если GPS-приемники решат, что не хотят ходить в химчистку, или, что еще хуже, Сири решила, что может стать умнее без тебя?

Наше последнее изобретение: искусственный интеллект и конец человеческой эры. "> Наше последнее изобретение: искусственный интеллект и конец человеческой эры. ">" Прежде чем мы поделимся планетой с супер-интеллектуальными машинами, мы должны разработать науку для их понимания. В противном случае они получат контроль », - говорит автор Джеймс Баррат о своей новой книге« Наше последнее изобретение: искусственный интеллект и конец человеческой эры » (любезно предоставлено Джеймсом Барратом).

Это лишь некоторые из результатов, которые Джеймс Баррат, автор и режиссер документальных фильмов, предсказывает в своей новой книге « Наше последнее изобретение: искусственный интеллект и конец человеческой эры» .

Вскоре, говорит Баррат, искусственный интеллект - от Siri до дронов и систем интеллектуального анализа данных - перестанет искать людей для обновлений и начнет самостоятельно искать улучшения. И в отличие от научной фантастики R2-D2 и HAL, ИИ нашего будущего не обязательно будет дружелюбным, говорит он: на самом деле они могут быть тем, что нас уничтожит.

В двух словах, вы можете объяснить свою большую идею?

В этом столетии ученые будут создавать машины с интеллектом, равным, а затем превосходящим наш собственный. Но прежде чем делить планету с супер-интеллектуальными машинами, мы должны разработать науку для их понимания. В противном случае они получат контроль. И нет, это не научная фантастика.

Ученые уже создали машины, которые лучше, чем люди в шахматах, Опасность!, навигация, интеллектуальный анализ данных, поиск, доказательство теорем и множество других задач. Со временем будут созданы машины, которые лучше, чем люди в исследованиях ИИ

В этот момент они смогут очень быстро улучшить свои собственные возможности. Эти самосовершенствующиеся машины будут преследовать цели, ради которых они созданы, будь то исследование космоса, игра в шахматы или сбор акций. Чтобы добиться успеха, они будут искать и тратить ресурсы, будь то энергия или деньги. Они будут стремиться избежать режимов отказа, таких как выключение или отключение от сети. Короче говоря, они будут разрабатывать диски, включая самозащиту и сбор ресурсов, - диски, очень похожие на наши. Они не будут стесняться просить, одалживать, красть и еще хуже, чтобы получить то, что им нужно.

Как вы заинтересовались этой темой?

Я режиссер документальных фильмов. В 2000 году я взял интервью у изобретателя Рэя Курцвейла, робототехника Родни Брукса и легенды научной фантастики Артура Кларка для фильма TLC о создании романа и фильма « 2001: Космическая одиссея». Интервью исследовали идею Hal 9000 и вредоносных компьютеров. Книги Курцвейла изображают будущее ИИ как восхитительную «особенность», период, когда технологические достижения опережают способность людей понимать их. И все же он ожидал, что от ИИ появятся только хорошие вещи, достаточно сильные, чтобы соответствовать, а затем превзойти человеческий интеллект. Он предсказывает, что мы сможем перепрограммировать клетки нашего тела, чтобы победить болезни и старение. Мы разработаем супер выносливость с наноботами, которые доставляют больше кислорода, чем эритроциты. Мы перегружаем наш мозг компьютерными имплантами, чтобы стать суперинтеллектуальными. И мы перенесем наш мозг в более надежную среду, чем наша нынешняя «мокрая посуда», и будем жить вечно, если захотим. Брукс был оптимистичен, настаивая на том, что роботы с улучшенным ИИ будут союзниками, а не угрозами.

Ученый, ставший писателем Кларк, с другой стороны, был пессимистичен. Он сказал мне, что интеллект победит, и люди, вероятно, будут бороться за выживание с супер-интеллектуальными машинами. Он не знал, что произойдет, когда мы поделимся планетой с супер-интеллектуальными машинами, но он чувствовал, что человечеству не удастся победить.

Это противоречило всему, что я думал об искусственном интеллекте, поэтому я начал брать интервью у экспертов по искусственному интеллекту.

Какие доказательства у вас есть, чтобы поддержать вашу идею?

Усовершенствованный искусственный интеллект - это технология двойного применения, такая как ядерное деление, способная приносить большой или большой вред. Мы только начинаем видеть вред.

Скандал с секретностью АНБ возник из-за того, что АНБ разработало очень сложные инструменты для анализа данных. Агентство использовало свои возможности для сбора метаданных миллионов телефонных звонков и всего Интернета - критически важно, всей электронной почты. Агентство, которому поручено защищать Конституцию, вместо того, чтобы злоупотреблять ею, соблазнено силой интеллектуального анализа данных. Они разработали инструменты, слишком мощные для того, чтобы их можно было использовать ответственно.

Сегодня назревает еще одна этическая битва, связанная с созданием полностью автономных беспилотников-убийц и роботов на полях сражений, работающих на продвинутых ИИ - людях-убийцах без людей в петле. Это назревает между Министерством обороны и производителями дронов и роботов, которым платит Министерство обороны, и людьми, которые думают, что создавать интеллектуальные машины для убийства глупо и аморально. Сторонники автономных беспилотных летательных аппаратов и роботов на поле боя утверждают, что они будут более моральными, то есть менее эмоциональными, будут нацелены лучше и будут более дисциплинированными, чем операторы-люди. Те, кто против того, чтобы вывести людей из колеи, смотрят на жалкую историю беспилотных летательных аппаратов, убивающих мирных жителей, и причастность к внелегальным убийствам. Кто несет моральную ответственность за убийство робота? Производители роботов, пользователи роботов или никто? Не берите в голову технические препятствия рассказывать другу от врага.

В долгосрочной перспективе, как утверждают эксперты из моей книги , ИИ, приближающийся к интеллекту человеческого уровня, будет нелегко контролировать; к сожалению, супер-интеллект не подразумевает доброжелательность. Как говорит теоретик ИИ Элиэзер Юдковски из МИРИ (Институт исследования машинного интеллекта): «ИИ не любит вас и не ненавидит вас, но вы сделаны из атомов, которые он может использовать для чего-то другого». Если этика не может быть встроенным в машину, тогда мы будем создавать сверхразумных психопатов, существ без моральных компасов, и мы не будем их хозяевами надолго.

Что нового в вашем мышлении?

Люди и группы, столь же разнообразные, как американский ученый-компьютерщик Билл Джой и MIRI, давно предупреждают, что нам стоит опасаться машин, чей интеллект затмевает наш собственный. В нашем заключительном изобретении я утверждаю, что ИИ также будет неправильно использоваться на пути развития к интеллекту человеческого уровня. Между сегодняшним днем ​​и днем, когда ученые создают интеллект на уровне человека, у нас будут ошибки, связанные с ИИ, и криминальные заявления.

Почему не сделано больше, или что делается для того, чтобы ИИ не заводил нас?

Там не одна причина, но много. Некоторые эксперты не верят, что мы достаточно близки к созданию искусственного интеллекта на уровне человека и за его пределами, чтобы беспокоиться о его рисках. Многие производители искусственного интеллекта выигрывают контракты с Агентством перспективных исследовательских проектов в области обороны [DARPA] и не хотят поднимать вопросы, которые они считают политическими. Смещение нормальности - это когнитивное смещение, которое мешает людям реагировать на бедствия и бедствия в процессе создания - это, безусловно, часть этого. Но многие производители ИИ что-то делают. Проверьте ученых, которые советуют MIRI. И намного больше будет вовлечено, когда опасности продвинутого ИИ войдут в основной диалог.

Можете ли вы описать момент, когда вы знали, что это большое?

Мы, люди, управляем будущим не потому, что мы самые быстрые или самые сильные существа на планете, а потому, что мы самые умные. Когда мы поделимся планетой с существами, умнее нас, они направят будущее. Когда я понял эту идею, я почувствовал, что пишу о самом важном вопросе нашего времени.

У каждого великого мыслителя есть предшественники, чья работа имела решающее значение для его открытия. Кто дал вам основу для создания вашей идеи?

Основы анализа риска ИИ были разработаны математиком И. Дж. Гудом, писателем-фантастом Вернором Винджем и другими, включая разработчика ИИ Стива Омохундро. Сегодня МИРИ и Оксфордский институт будущего человечества практически одиноки в решении этой проблемы. Наше последнее изобретение содержит около 30 страниц сносок, в которых выражается признательность этим мыслителям.

В исследовании и развитии вашей идеи, что было высшей точкой? И низкая точка?

Кульминацией были написание « Нашего последнего изобретения» и мой постоянный диалог с создателями ИИ и теоретиками. Люди, которые программируют ИИ, знают о проблемах безопасности и хотят помочь придумать меры безопасности. Например, MIRI работает над созданием «дружественного» ИИ

Ученый-компьютерщик и теоретик Стив Омохундро отстаивает подход «скаффолдинга», при котором доказуемо безопасный ИИ помогает создавать ИИ следующего поколения, чтобы гарантировать его безопасность. Затем этот ИИ делает то же самое, и так далее. Я думаю, что необходимо создать частно-государственное партнерство, чтобы объединить создателей ИИ для обмена идеями о безопасности - что-то вроде Международного агентства по атомной энергии, но в партнерстве с корпорациями. Низкие баллы? Понимая, что для создания оружия будет использована лучшая, самая передовая технология искусственного интеллекта. И это оружие в конечном итоге обернется против нас.

Какие два или три человека, скорее всего, попытаются опровергнуть ваш аргумент? Зачем?

Изобретатель Рэй Курцвейл - главный апологет передовых технологий. В двух моих беседах с ним он утверждал, что мы будем объединяться с технологиями искусственного интеллекта посредством когнитивных улучшений. Курцвейл и люди, широко известные как трансгуманисты и сингулярные люди, думают, что ИИ и, в конечном счете, искусственный общий интеллект и за его пределами будут развиваться вместе с нами. Например, компьютерные импланты повысят скорость нашего мозга и общие возможности. Со временем мы разработаем технологию для передачи нашего интеллекта и сознания в компьютеры. Тогда супер-интеллект будет, по крайней мере, частично человеком, что в теории обеспечило бы, чтобы супер-интеллект был «безопасным».

По многим причинам я не фанат этой точки зрения. Проблема в том, что мы, люди, не надежно в безопасности, и маловероятно, что сверхразумные люди тоже будут. Мы понятия не имеем, что происходит с этикой человека после повышения его интеллекта. У нас есть биологическая основа для агрессии, которой нет у машин. Супер-интеллект вполне может быть множителем агрессии.

Кто больше всего будет затронут этой идеей?

Каждый на планете может сильно опасаться нерегулируемого развития сверхинтеллектуальных машин. Интеллектуальная гонка продолжается прямо сейчас. Достижение AGI является задачей номер один для Google, IBM и многих небольших компаний, таких как Vicarious и Deep Thought, а также DARPA, NSA, правительств и компаний за рубежом. Прибыль является основной мотивацией для этой гонки. Представьте себе одну вероятную цель: виртуальный человеческий мозг по цене компьютера. Это был бы самый прибыльный товар в истории. Представьте себе банки тысяч мозгов, обладающих докторской степенью качества, которые работают круглосуточно над разработкой фармацевтической продукции, исследованиями рака, разработкой оружия и многим другим. Кто бы не хотел покупать эту технологию?

Между тем, 56 стран разрабатывают роботов на поле боя, и стремление сделать их и беспилотников автономными. Это будут машины, которые убивают без присмотра людей. Обедневшие народы больше всего пострадают от автономных беспилотников и роботов на полях сражений. Первоначально, только богатые страны смогут позволить себе автономных ботов-убийц, поэтому богатые страны будут использовать это оружие против солдат-людей из бедных стран.

Как это может изменить жизнь, какой мы ее знаем?

Представьте себе: всего за десять лет полдюжины компаний и стран производят компьютеры, которые конкурируют или превосходят человеческий интеллект. Представьте, что происходит, когда эти компьютеры становятся экспертами в программировании интеллектуальных компьютеров. Скоро мы поделимся планетой с машинами, которые в тысячи или миллионы раз умнее нас. И все время каждое поколение этой технологии будет вооружено. Нерегулируемый, это будет катастрофическим.

Какие вопросы остались без ответа?

Решения. Очевидным решением было бы придать машинам моральный смысл, который заставит их ценить человеческую жизнь и собственность. Но программирование этики в машину оказывается чрезвычайно сложным. Моральные нормы отличаются от культуры к культуре, они меняются со временем, и они контекстуальны. Если мы, люди, не можем договориться о том, когда начинается жизнь, как мы можем сказать машине, чтобы защитить жизнь? Мы действительно хотим быть в безопасности , или мы действительно хотим быть свободными ? Мы можем обсуждать это весь день и не достичь консенсуса, так как же мы можем запрограммировать это?

Мы также, как я упоминал ранее, должны собрать разработчиков ИИ вместе. В 1970-х годах исследователи рекомбинантной ДНК решили приостановить исследования и собраться на конференцию в Асиломар в Пасифик-Гроув, Калифорния. Они разработали базовые протоколы безопасности, такие как «не отследить ДНК на ваших ботинках», опасаясь загрязнения окружающей среды генетическими работами. Благодаря «Руководству по Asilomar», мир извлекает выгоду из генетически модифицированных культур, и генная терапия выглядит многообещающе. Насколько нам известно, несчастных случаев удалось избежать. Пришло время конференции Asilomar для AI

Что стоит на пути?

Огромный экономический ветер стимулирует развитие передового искусственного интеллекта. Уровень человеческого интеллекта по цене компьютера станет самым горячим товаром в истории. Google и IBM не захотят делиться своими секретами с общественностью или конкурентами. Министерство обороны не захочет открывать свои лаборатории для Китая и Израиля, и наоборот. Осведомленность общественности должна подталкивать политику к открытости и государственно-частному партнерству, направленному на обеспечение безопасности.

Что дальше для вас?

Я режиссер документальных фильмов, поэтому, конечно же, я думаю о кинопрогнозе « Наше последнее изобретение» .

Что происходит, когда нас привлекает искусственный интеллект?