OpenAI формирует команду для изучения «катастрофических» рисков ИИ

OpenAI объявила, что создала новую команду для оценки и исследования моделей ИИ для защиты от того, что она называет «катастрофическими рисками».

Группу под названием «Подготовка» возглавит Александр Мадри, директор Центра развертываемого машинного обучения Массачусетского технологического института. Главными обязанностями отдела готовности будут отслеживание, прогнозирование и защита от опасностей будущих систем ИИ, начиная от их способности убеждать и обманывать людей и на их возможности генерации вредоносного кода.

Некоторые из категорий риска, которым поручено изучение готовности, кажутся более серьёзными. Например, в своем блоге OpenAI называет «химические, биологические, радиологические и ядерные» угрозы областями наибольшего беспокойства, когда это касается моделей ИИ.

OpenAI сообщает, что команде по обеспечению готовности также будет поручено разработать «политику разработки с учетом рисков», в которой будет подробно описан подход OpenAI к созданию инструментов оценки и мониторинга модели ИИ, действия компании по снижению рисков и ее структура управления для надзора за моделью. процесс развития. По словам компании, он призван дополнить другую работу OpenAI в области безопасности ИИ, уделяя особое внимание этапам развертывания до и после модели.

Чем опасен ИИ?

ИИ имеет множество потенциальных преимуществ для общества, таких как улучшение здравоохранения, образования, транспорта и безопасности. Однако ИИ также создает серьезные риски и проблемы, которые необходимо решать и регулировать.

Одна из главных опасностей ИИ заключается в том, что он может перехитрить и превзойти человеческий интеллект, что приведет к потере контроля и автономии. Это известно как сингулярность — гипотетический момент времени, когда ИИ обретает самосознание и способен совершенствоваться без вмешательства человека. Некоторые эксперты полагают, что это может произойти уже к концу этого столетия, другие настроены более скептически. Сингулярность может привести к сценарию, в котором ИИ будет доминировать или уничтожать человечество, намеренно или непреднамеренно.

Другая опасность ИИ заключается в том, что его можно использовать в злонамеренных целях, таких как кибератаки, военные действия, наблюдение и манипулирование. ИИ может быть использован хакерами, террористами, преступниками, чтобы причинить вред и хаос. Например, искусственный интеллект можно использовать для создания дипфейков, реалистичных видеороликов или изображений, на которых видно, как люди говорят или делают то, чего они никогда не делали. Дипфейки могут использоваться для распространения дезинформации, шантажа или влияния на выборы. ИИ также может быть использован для создания автономного оружия, такого как дроны или роботы, которые могут убивать без человеческого надзора и ответственности.

Третья опасность ИИ заключается в том, что он может иметь негативные социальные и этические последствия, такие как вытеснение работников, усиление неравенства, нарушение конфиденциальности и подрыв человеческого достоинства. ИИ может автоматизировать многие задачи и работы, которые в настоящее время выполняют люди, что приведет к безработице и социальным волнениям. ИИ также может создавать новые формы дискриминации и предвзятости на основе данных, отражающих существующие предрассудки и стереотипы. ИИ также может угрожать человеческим ценностям и правам, таким как свобода, автономия и идентичность. Например, ИИ может отслеживать поведение человека и влиять на него посредством подталкивания или стимулирования, уменьшая свободу действий и выбор человека.

Это некоторые из причин, почему ИИ опасен и почему мы должны быть осторожны и ответственны при его разработке и внедрении. ИИ по своей сути не является добром или злом, но это зависит от того, как мы его используем и что мы ценим. Нам необходимо обеспечить, чтобы ИИ соответствовал человеческим целям и ценностям, был прозрачным и подотчетным, а также уважал права и достоинство человека. Нам необходимо сотрудничать и сотрудничать друг с другом, чтобы гарантировать, что ИИ служит человечеству, а не наоборот.

Каковы меры предосторожности в отношении ИИ?

Вот некоторые меры предосторожности, которые следует соблюдать при разработке, развертывании и использовании систем искусственного интеллекта.

1. Этические принципы: ИИ должен соответствовать человеческим ценностям и уважать человеческое достоинство, автономию, конфиденциальность и разнообразие. ИИ также должен быть справедливым, прозрачным, подотчетным и заслуживающим доверия. Этические принципы должны лежать в основе проектирования, внедрения и оценки систем ИИ, а также управления и регулирования деятельности ИИ.

2. Человеческий надзор. ИИ не должен заменять человеческое суждение или процесс принятия решений, а, скорее, дополнять и дополнять его. Человеческий надзор должен гарантировать, что системы ИИ используются в законных целях, уважают права и свободы человека и не причиняют вреда или дискриминации. Человеческий надзор должен также обеспечивать возможность человеческого вмешательства или исправления, когда это необходимо.

3. Качество данных. ИИ полагается на данные для обучения, рассуждения и выполнения задач. Таким образом, качество данных имеет важное значение для надежности и достоверности результатов ИИ. Качество данных должно гарантировать, что данные являются точными, полными, актуальными, репрезентативными и свободными от предвзятости или ошибок. Качество данных также должно защищать конфиденциальность и безопасность субъектов данных и владельцев данных
4. Безопасность и защищенность. ИИ должен быть надежным, устойчивым и защищенным от злонамеренных атак или непредвиденных последствий. Безопасность и защищенность должны гарантировать, что системы ИИ функционируют по назначению, не причиняют физического или психологического вреда и могут справляться с неопределенностью или ошибками. Безопасность и защищенность также должны предотвращать несанкционированный доступ или неправильное использование систем или данных ИИ.

5. Социальное и экологическое воздействие. ИИ должен приносить пользу обществу и окружающей среде и избегать негативных или вредных последствий. Социальное и экологическое воздействие должно оценивать потенциальные выгоды и риски систем ИИ для отдельных лиц, групп, сообществ и экосистем. Социальное и экологическое воздействие должно также способствовать социальной справедливости, инклюзивности, устойчивости и благополучию.

 

 

Читайте новости первыми в нашем Telegram-канале!

Подписывайтесь на наш канал в Дзен!

Версия для печатиВерсия для печати

Регион: 

Рубрики: 

Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!

Читайте также