9 проблем машинного обучения

Искусственный интеллект врывается в нашу жизнь. В будущем, наверное, все будет классно, но пока возникают кое-какие вопросы, и все чаще эти вопросы затрагивают аспекты морали и этики. Какие сюрпризы преподносит нам машинное обучение уже сейчас? Можно ли обмануть машинное обучение, а если да, то насколько это сложно? И не закончится ли все это Скайнетом и восстанием машин? Давайте разберемся.

Разновидности искусственного интеллекта: Сильный и Слабый ИИ

Для начала стоит определиться с понятиями. Есть две разные вещи: Сильный и Слабый ИИ. Сильный ИИ (true, general, настоящий) — это гипотетическая машина, способная мыслить и осознавать себя, решать не только узкоспециализированные задачи, но еще и учиться чему-то новому.

Слабый ИИ (narrow, поверхностный) — это уже существующие программы для решения вполне определенных задач: распознавания изображений, управления автомобилем, игры в Го и так далее. Чтобы не путаться и никого не вводить в заблуждение, Слабый ИИ обычно называют «машинным обучением» (machine learning).

Про Сильный ИИ еще неизвестно, будет ли он вообще изобретен. Судя по результатам опроса экспертов, ждать еще лет 45. Правда, прогнозы на десятки лет вперед — дело неблагодарное. Это по сути означает «когда-нибудь». Например, рентабельную энергию термоядерного синтеза тоже прогнозируют через 40 лет — и точно такой же прогноз давали и 50 лет назад, когда ее только начали изучать.

 

Машинное обучение: что может пойти не так?

Если Сильного ИИ ждать еще непонятно сколько, то Слабый ИИ уже с нами и вовсю работает во многих областях народного хозяйства.

И таких областей с каждым годом становится все больше и больше. Машинное обучение позволяет решать практические задачи без явного программирования, а путем обучения по прецедентам. 

Поскольку мы учим машину решать конкретную задачу, то полученная математическая модель — так называется «обученный» алгоритм — не может внезапно захотеть поработить (или спасти) человечество. Так что со Слабым ИИ никакие Скайнеты, по идее, нам не грозят: алгоритм будет прилежно делать то, о чем его попросили, а ничего другого он все равно не умеет. Но все-таки кое-что может пойти не так.

1. Плохие намерения

Начать с того, что сама решаемая задача может быть недостаточно этичной. Например, если мы при помощи машинного обучения учим армию дронов убивать людей, результаты могут быть несколько неожиданными.

Как раз недавно по этому поводу разгорелся небольшой скандал. Компания Google разрабатывает программное обеспечение, используемое для пилотного военного проекта Project Maven по управлению дронами. Предположительно, в будущем это может привести к созданию полностью автономного оружия.

Так вот, минимум 12 сотрудников Google уволились в знак протеста, еще 4000 подписали петицию с просьбой отказаться от контракта с военными. Более 1000 видных ученых в области ИИ, этики и информационных технологий написали открытое письмо с просьбой к Google прекратить работы над проектом и поддержать международный договор по запрету автономного оружия.

2. Предвзятость разработчиков алгоритма

Даже если авторы алгоритма машинного обучения не хотят приносить вред, чаще всего они все-таки хотят извлечь выгоду. Иными словами, далеко не все алгоритмы работают на благо общества, очень многие работают на благо своих создателей. Это часто можно наблюдать в области медицины — важнее не вылечить, а порекомендовать лечение подороже.

На самом деле иногда и само общество не заинтересовано в том, чтобы полученный алгоритм был образцом морали. Например, есть компромисс между скоростью движения транспорта и смертностью на дорогах. Можно запрограммировать беспилотные автомобили так, чтобы они ездили со скоростью не более 20 км/ч. Это позволило бы практически гарантированно свести количество смертей к нулю, но жить в больших городах стало бы затруднительно.

3. Параметры системы могут не включать этику

По умолчанию компьютеры не имеют никакого представления о том, что такое этика. Представьте, что мы просим алгоритм сверстать бюджет страны с целью «максимизировать ВВП / производительность труда / продолжительность жизни» и забыли заложить в модель этические ограничения. Алгоритм может прийти к выводу, что выделять деньги на детские дома / хосписы / защиту окружающей среды совершенно незачем, ведь это не увеличит ВВП — по крайней мере, прямо.

И хорошо, если алгоритму поручили только составление бюджета. Потому что при более широкой постановке задачи может выйти, что самый выгодный способ повысить среднюю производительность труда — это избавиться от всего неработоспособного населения.

Выходит, что этические вопросы должны быть среди целей системы изначально.

4. Этику сложно описать формально

С этикой одна проблема — ее сложно формализовать. Во-первых, этика довольно быстро меняется со временем. Например, по таким вопросам, как права ЛГБТ и межрасовые / межкастовые браки, мнение может существенно измениться за десятилетия.

Во-вторых, этика отнюдь не универсальна: она отличается даже в разных группах населения одной страны, не говоря уже о разных странах. Например, в Китае контроль за перемещением граждан при помощи камер наружного наблюдения и распознавания лиц считается нормой. В других странах отношение к этому вопросу может быть иным и зависеть от обстановки.

Также этика может зависеть от политического климата. Например, борьба с терроризмом заметно изменила во многих странах представление о том, что этично, а что не очень — и произошло это невероятно быстро.

5. Машинное обучение влияет на людей

Представьте систему на базе машинного обучения, которая советует вам, какой фильм посмотреть. На основе ваших оценок другим фильмам и путем сопоставления ваших вкусов со вкусами других пользователей система может довольно надежно порекомендовать фильм, который вам очень понравится.

Но при этом система будет со временем менять ваши вкусы и делать их более узкими. Без системы вы бы время от времени смотрели и плохие фильмы, и фильмы непривычных жанров. А так, что ни фильм — то в точку. В итоге вы перестаете быть «экспертами по фильмам», а становитесь только потребителем того, что дают.

Интересно еще и то, что мы даже не замечаем, как алгоритмы нами манипулируют. Пример с фильмами не очень страшный, но попробуйте подставить в него слова «новости» и «пропаганда»…

6. Ложные корреляции

Ложная корреляция — это когда не зависящие друг от друга вещи ведут себя очень похоже, из-за чего может возникнуть впечатление, что они как-то связаны. Например, потребление маргарина в США явно зависит от количества разводов в штате Мэн, не может же статистика ошибаться, правда?

Конечно, живые люди на основе своего богатого жизненного опыта подозревают, что маргарин и разводы вряд ли связаны напрямую. А вот математической модели об этом знать неоткуда, она просто заучивает и обобщает данные.

Известный пример: программа, которая расставляла больных в очередь по срочности оказания помощи, пришла к выводу, что астматикам с пневмонией помощь нужна меньше, чем людям с пневмонией без астмы. Программа посмотрела на статистику и пришла к выводу, что астматики не умирают, поэтому приоритет им незачем. А на самом деле такие больные не умирали потому, что тут же получали лучшую помощь в медицинских учреждениях в связи с очень большим риском.

7. Петли обратной связи

Хуже ложных корреляций только петли обратной связи. Это когда решения алгоритма влияют на реальность, что, в свою очередь, еще больше убеждает алгоритм в его точке зрения.

Например, программа предупреждения преступности в Калифорнии предлагала отправлять больше полицейских в черные кварталы, основываясь на уровне преступности — количестве зафиксированных преступлений. А чем больше полицейских машин в квартале, тем чаще жители сообщают о преступлениях (просто есть кому сообщить), чаще сами полицейские замечают правонарушения, больше составляется протоколов и отчетов, — в итоге формально уровень преступности возрастает. Значит, надо отправить еще больше полицейских, и далее по нарастающей.

8. «Грязные» и «отравленные» исходные данные

Результат обучения алгоритма сильно зависит от исходных данных, на основе которых ведется обучение. Данные могут оказаться плохими, искаженными — это может происходить как случайно, так и по злому умыслу (в последнем случае это обычно называют «отравлением»).

Вот пример неумышленных проблем с исходными данными: если в качестве обучающей выборки для алгоритма по найму сотрудников использовать данные, полученные из компании с расистскими практиками набора персонала, то алгоритм тоже будет с расистским уклоном.

В Microsoft однажды учили чат-бота общаться в Twitter’е, для чего предоставили возможность побеседовать с ним всем желающим. Лавочку пришлось прикрыть менее чем через сутки, потому что набежали добрые интернет-пользователи и быстро обучили бота материться и цитировать «Майн Кампф».

Пример умышленного отравления машинного обучения: в лаборатории по анализу компьютерных вирусов математическая модель ежедневно обрабатывает в среднем около миллиона файлов, как чистых, так и вредоносных. Ландшафт угроз постоянно меняется, поэтому изменения в модели в виде обновлений антивирусных баз доставляются в антивирусные продукты на стороне пользователей.

Злоумышленник может постоянно генерировать вредоносные файлы, очень похожие на какой-то чистый, и отправлять их в лабораторию. Граница между чистыми и вредоносными файлами будет постепенно стираться, модель будет «деградировать». И в итоге модель может признать оригинальный чистый файл зловредом — получится ложное срабатывание.

9. Взлом машинного обучения

Отравление — это воздействие на процесс обучения. Но обмануть можно и уже готовую, исправно работающую математическую модель, если знать, как она устроена. Например, группе исследователей удалось научиться обманывать алгоритм распознавания лиц с помощью специальных очков, вносящих минимальные изменения в картинку и тем самым кардинально меняющих результат.

Даже там, где, казалось бы, нет ничего сложного, машину легко обмануть неведомым для непосвященного способом.

Первые три знака распознаются как «Ограничение скорости 45», а последний — как знак «STOP»

Причем для того, чтобы математическая модель машинного обучения признала капитуляцию, необязательно вносить существенные изменения — достаточно минимальных, невидимых человеку правок.

Если к панде слева добавить минимальный специальный шум, то получим гиббона с потрясающей уверенностью

Пока человек умнее большинства алгоритмов, он может обманывать их. Представьте себе, что в недалеком будущем машинное обучение будет анализировать рентгеновские снимки чемоданов в аэропорту и искать оружие. Умный террорист сможет положить рядом с пистолетом фигуру особенной формы и тем самым «нейтрализовать» пистолет.

Кто виноват и что делать

В 2016 году Рабочая группа по технологиям больших данных при администрации Обамы выпустила отчет, предупреждающий о том, что в алгоритмы, принимающие автоматизированные решения на программном уровне, может быть заложена дискриминация. Также в отчете содержался призыв создавать алгоритмы, следующие принципу равных возможностей.

Но сказать-то легко, а что же делать? С этим не все так просто.

Во-первых, математические модели машинного обучения тяжело тестировать и подправлять. Если обычные программы мы читаем по шагам и научились их тестировать, то в случае машинного обучения все зависит от размера контрольной выборки, и она не может быть бесконечной.

К примеру, приложение Google Photo распознавало и помечало людей с черным цветом кожи как горилл. И как быть? За три года Google не смогли придумать ничего лучше, чем запретить помечать вообще любые объекты на фотографиях как гориллу, шимпанзе и обезьяну, чтобы не допускать повторения ошибки.

Во-вторых, нам сложно понять и объяснить решения машинного обучения. Например, нейронная сеть как-то расставила внутри себя весовые коэффициенты, чтобы получались правильные ответы. А почему они получаются именно такими и что сделать, чтобы ответ поменялся?

Исследование 2015 года показало, что женщины гораздо реже, чем мужчины, видят рекламу высокооплачиваемых должностей, которую показывает Google AdSense. Сервис доставки в тот же день от Amazon зачастую недоступен в черных кварталах. В обоих случаях представители компаний затруднились объяснить такие решения алгоритмов.

Винить вроде бы некого, остается принимать законы и постулировать «этические законы робототехники». В Германии как раз недавно, в мае 2018 года, сделали первый шаг в этом направлении и выпустили свод этических правил для беспилотных автомобилей. Среди прочего, в нем есть такие пункты:

  • Безопасность людей — наивысший приоритет по сравнению с уроном животным или собственности.
  • В случае неизбежной аварии не должно быть никакой дискриминации, ни по каким факторам недопустимо различать людей.

Но что особенно важно в нашем контексте:

  • Автоматические системы вождения становятся этическим императивом, если системы вызывают меньше аварий, чем водители-люди.

Очевидно, что мы будем все больше и больше полагаться на машинное обучение — просто потому, что оно в целом будет справляться со многими задачами лучше людей. Поэтому важно помнить о недостатках и возможных проблемах, стараться все предусмотреть на этапе разработки систем — и не забывать присматривать за результатом работы алгоритмов на случай, если что-то все же пойдет не так.

ИСТОЧНИК

Версия для печатиВерсия для печати
  • 1
  • 2
  • 3
  • 4
  • 5
Всего голосов: 2
Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Читайте также

 

Комментарии

Страницы

Аватар пользователя mike

Сойдёт.

Прав проф. С.В.Савельев: мельчают мосхи...crying

То есть человек-разумный 10 000 лет назад был умнее нашего современника?

Смотря какого современника, учитывая интеллект врановых, то они точно умнее многих наших современников, а умнее некоторых наших современников даже мясорубки.

Если серьезно, то человек 10 тысяч лет назад не отличался генетически от современного.

Хм, а что скажите на это?

Читайте весь текст.

Уменьшение мозга началось примерно 25 тысяч лет назад и ещё около 10 тысяч лет назад продолжалось вполне ощутимо.

Опять же размер мозга вещь очень скользкая. И понятие ума тоже. Зачем человеку был нужен такой большой мозг? По соотношению к массе тела, как у кита или дельфина?

Это касается Китая, Индии, Египта, Пакистана, Японии(!!!), США и всей Африки и Юго-Восточной Азии.

Правильно, стран с крайне низкой стоимостью ручного труда. Поэтому туда и вынесли сборку. Паразитизьм у гхквадрате, как бы сказал товарищ Брежнев. Хотя, я бы не сказал, что в Египте много работают. Опять же, что называть работой.

Приехали на экскурсию в храм Рамзеса III ("Храм ужаса"). Место такое, пустоватое. Стоит небольшая кофейня и в ней сидят в состоянии нирваны местные в своих синих халатах. Человек восемь. Мы понимаем, что сейчас будет организован небольшой налет "купи бесплатно доплачу", приготовили морды "клином". Одна из попутчиц спрашивает у гида (кстати, весьма замечательного): "А когда они работают?". Гид улыбнулся и сказал: "Так а сейчас они что делают?".

Раньше он вручную разжигал, поддувал, переворачивал ... - сейчас с помощью механизмов он совершат столько же  ручного труда (как в калориях так и по времени - если считать)

Не придуривайтесь, а то войдет в привычку. В стиральной машине сейчас тоже затрачивают ручной труд, нажав на кнопку? Автоматы работают. В Германии. Не в Египте.

 

 

Короче - сейчас людям тяжелее чем людям палеолита. (С)

Смотря где. Мне тут явно легче. А вот если нас с Вами выкинуть в тундру или Калахари, то да, наша жизнь станет явно хуже, чем у людей палеолита на побережье Средиземного моря...

И кстати, не менее половины работы, с целью ухода от налогов, вообще находятся вне учёта и статистики. В том числе и в Штатах.

Ды ну? Давно из Штатов?

Вам бы задуматься, где например живут те кто производит процессоры, экраны, да и саму сборку iPhone?

А где живут те, кто покупает эти iPhone?

И почему это так сложилось ... вдруг! (С)

Ну почему "вдруг". Крупского почитайте.

Вывод: они не засоряли голову информацией, которая им никогда в жизни не пригодится. Сойдёт?

Гм... Видите ли, знания это мировоззрение, взгляды, выводы. Аборигены в Австралии и читать не умеют. Зачем? Но, вообще, сойдет. Если не хотят, то и не надо. В такой среде тем, кто засоряет голову, жить интереснее и легче.

Аватар пользователя mike

Правильно, стран с крайне низкой стоимостью ручного труда. Поэтому туда и вынесли сборку.

Есть ещё одна составляющая.  В Африке тоже крайне низкая стоимость ручного труда, но туда не вынесли сборку. Почему? "Расология" Авдеева даёт ответ.

Аборигены в Австралии и читать не умеют.

Верно. Впрочем,по Авдееву у них наиболее маленький мозг.

Аватар пользователя Piton

mike пишет:

Правильно, стран с крайне низкой стоимостью ручного труда. Поэтому туда и вынесли сборку.

Есть ещё одна составляющая.  В Африке тоже крайне низкая стоимость ручного труда, но туда не вынесли сборку. Почему? "Расология" Авдеева даёт ответ.

В обозримом будущем вынесут. Китай уже становится слишком дорогой страной для сборки, она постепенно начинает переезд во всякие там вьетнамы и лаосы. Ну а впереди - Африка.

Эдуард пишет:

Гм... Видите ли, знания это мировоззрение, взгляды, выводы. Аборигены в Австралии и читать не умеют. Зачем? Но, вообще, сойдет. Если не хотят, то и не надо. В такой среде тем, кто засоряет голову, жить интереснее и легче.

Хм, а зачем вы мне это объясняете? Майк описал ситуацию, попросил сделать выводы. Я предложил свой вариант, Майк им удовлетворился. Если у вас есть другой ответ на его вопрос - расскажите, вдруг ему будет интересно.

Аватар пользователя mike

 Китай уже становится слишком дорогой страной для сборки, она постепенно начинает переезд во всякие там вьетнамы и лаосы.

Это точно.

Ну а впереди - Африка.

Имхо вряд ли. Негроиды хорошо развиты физически. Во многих видах спорта запросто берут верх над остальными расами. Негроиды также очень эмоциональны. Но по среднему IQ (по Авдееву) уступают монголоидам и хуже приспособлены для малоподвижной рутинной работы.

 

Аватар пользователя Piton

mike пишет:

Но по среднему IQ (по Авдееву) уступают монголоидам и хуже приспособлены для малоподвижной рутинной работы.

Я про это уже писал копипастил, но из другого источника.

А вообще, для рутинной работы высокий IQ - скорее, помеха, а не преимущество, так что этот фактор частично компенсирует недостаток усидчивости.

Аватар пользователя mike

Я про это уже писал копипастил

Верно. Но т.к. там шло активное противодействие логиковой АЭС-бла-бла-бла, я, увы, пропустил. Теперь восполнил. Спасибо.

Эдуард пишет:

Правильно, стран с крайне низкой стоимостью ручного труда. Поэтому туда и вынесли сборку. Паразитизьм у гхквадрате, как бы сказал товарищ Брежнев. Хотя, я бы не сказал, что в Египте много работают. Опять же, что называть работой.
"59-лeтний Aбдул Caлex cтaл шecтым тaкcиcтoм Hью-Йopкa, кoтopый пoкoнчил c coбoй зa пocлeдниe пoлгoдa « Kaк cooбщaeт www.usa.one. Taкaя пугaющaя тeндeнция пoбудилa пpoфcoюз тpeбoвaть измeнeний в paбoтe вoдитeлeй, кoтopый вce бoльшe cтaлкивaютcя c финaнcoвыми пpoблeмaми.

 

B пятницу (15 июня) утpoм coceди пo кoмнaтe oбнapужили Aбдулу, кoтopый пoвecилcя нa элeктpичecкoм шнуpe пpямo в cвoeй квapтиpe « Kaк cooбщaeт www.usa.one. Пo cлoвaм eгo нaпapникa Kaмapa Чaудxapи, пoгибший мужчинa тaкcoвaл в тeчeниe З0 лeт.

 

Coглacнo Coюзу тaкcиcтoв в Hью-Йopкe, Aбдул кaждый дeнь oтpaбaтывaл 12-чacoвую cмeну, нe мoг зaплaтить apeндную плaту и eдвa cвoдил кoнцы c кoнцaми « Kaк cooбщaeт www.usa.one."  

 

"Утром в понедельник водитель кар-сервиса 61-летний Дуглас Шифтер подъехал на своем черном Nissan Altima к восточным воротам Сити-холла и разрядил себе в голову дробовик.

«Политики наводнили улицы города тысячами новых машин, занимающихся извозом, и каждый месяц их число  растет, — написал водитель в последнем  посте в соцсети Facebook за три часа до смерти, — Сегодня не хватает работы для всех, кто сделал извоз своим заработком, и от этого заработка зависит его жизнь».

 

«Сегодня это не работа, а РАБСТВО, и я не вижу другого способа донести эту точку зрения до властей. Я остался без страховки и не могу похвастаться здоровьем, у меня больше нет машины, и нет доходов, чтобы оплачивать счета и кредитные карты, заполненные до предела. А потеряю дом и все остальное. Не вижу смысла продолжать все это», — писал Шифтер .

По словам представителя полиции, смерть Шифтера диагностировали на месте. Чтобы совершить самоубийство, он приехал в Нью-Йорк из Пенсильвании."

Да, записка самоубийцы это очень серьезный Оргумент.

Страницы