OpenAI говорит, что ИИ должен регулироваться как ядерное оружие.  Действительно?

OpenAI говорит, что ИИ должен регулироваться как ядерное оружие. Действительно?

Теоретически это был идеальный день для OpenAI, чтобы опубликовать сообщение в блоге под названием Управление сверхразумом(откроется в новой вкладке). На практике пост и его время только что доказали, насколько далеки люди, находящиеся в авангарде мира ИИ, от регулирования своих технологий или понимания надлежащего контекста.

Компания, стоящая за одним из самых известных генераторов изображений с искусственным интеллектом (Dall-E) и самым известным чат-ботом с искусственным интеллектом (ChatGPT), опубликовала пост, потому что хочет, чтобы ее воспринимали как группу трезвых взрослых, принимая как обещание, так и угрозу. его технологии серьезно. И посмотрите, что только что произошло: сгенерированные искусственным интеллектом изображения горящих Пентагона и Белого дома вызвали кратковременный шок на фондовом рынке. Какое лучшее время для лидера рынка, чтобы продемонстрировать трезвость?

Наряду с гонкой ИИ-вооружений между Microsoft, главным союзником ChatGPT, и Google идет своего рода соревнование за «доверие и безопасность». На презентации Google IO две недели назад восторженные заявления об интеграции Bard были смягчены сегментом «Ответственный ИИ». На прошлой неделе генеральный директор OpenAI Сэм Альтман дал показания Конгрессу, которые выглядели как более скромный и более человечный ответ Марку Цукербергу. Далее: соучредитель OpenAI Грег Брокман, только что принявший участие в конференции TED, проводит свое ответственное роуд-шоу для взрослых в Microsoft Build.

Но что на самом деле говорит сама по себе книга «Управление сверхразумом», написанная Альтманом и Брокманом в соавторстве? Менее тысячи слов — немного, а отсутствие конкретики может навредить их делу.

Вот TL;DR: ИИ несет в себе риски. Как и ядерная энергетика. Эй, может быть, у нас должен быть глобальный орган регулирования ИИ, подобный Международному агентству по атомной энергии (МАГАТЭ)! Но также должен быть большой общественный контроль над этим агентством, и то, что делает OpenAI прямо сейчас, не входит в сферу регулирования, потому что это больше касается помощи отдельным людям.

Кроме того, кто-то, вероятно, рано или поздно создаст сверхразум, и останавливать их было бы «неинтуитивно рискованно», так что «мы должны сделать все правильно». Конец.

У OpenAI есть явная корыстная цель, усиливающая угрозу искусственного интеллекта. Вы хотите [insert your preferred bad actor here] чтобы сначала добраться до сверхразума, также известного как AGI, что означает «общий искусственный интеллект»? Или вы бы предпочли поддержать компанию, которая настолько прозрачна в своих технологиях, что у них в названии есть слово «открыто»?

По иронии судьбы, OpenAI не раскрывает полностью информацию о языковых моделях, которые она использует для обучения своих чат-ботов с 2019 года. как сообщается, готовится модель с открытым исходным кодом(откроется в новой вкладке), но, скорее всего, это бледная тень GPT. OpenAI был некоммерческим, теперь это коммерческий с оценкой в ​​30 миллиардов долларов(откроется в новой вкладке). Это может объяснить, почему сообщение в блоге больше похоже на маркетинговую чепуху, чем на официальный документ.

ИИ не является реальной угрозой. (Еще.)

Когда изображения ИИ «Взрыв Пентагона» попали в Интернет, это должно было стать подарком для OpenAI. Альтман и Ко. могли бы потратить еще несколько часов, обновляя свой заранее написанный пост с упоминанием инструментов искусственного интеллекта, которые могут помочь нам отделить фальшивые новости от настоящих.

Но это может привлечь внимание к неудобному факту для компании, стремящейся раскрутить ИИ: проблема с изображениями была не в ИИ. Они не были особенно убедительны. Поддельные изображения пожаров на известных достопримечательностях — это то, что вы можете создать самостоятельно в Photoshop. Местные власти быстро подтвердили, что взрывов не было, и фондовый рынок исправился.

На самом деле, единственная проблема заключалась в том, что изображения стали вирусными на платформе, где были удалены все функции доверия и безопасности: Twitter. Аккаунт, который первоначально распространял их, назывался «Bloomberg Feed». И он платил 8 долларов в месяц за синюю галочку, которая больше не означает, что учетная запись подтверждена.

Другими словами, массовое уничтожение Илоном Маском проверки Твиттера позволило аккаунту выдать себя за известное информационное агентство. Аккаунт распространял вызывающую страх картинку, которую подхватили российские пропагандистские службы, такие как RT, с которых Маск также снял ярлык «государственные СМИ».

Сомнительно, что мы когда-нибудь получим международное агентство по ИИ, столь же эффективное, как МАГАТЭ. Технология может развиваться слишком быстро и быть слишком плохо изученной для регулирующих органов. Но и главная угроза, которую он представляет в обозримом будущем — даже согласно «крестному отцу ИИ» Джеффри Хинтону, самому выдающемуся предсказателю рока(откроется в новой вкладке) — заключается в том, что поток новостей и изображений, созданных ИИ, означает, что обычный человек «больше не сможет сказать, что правда».

Но в этом конкретном тесте растяжки фейковых новостей сработали — не благодаря Маску. Что нам нужно более срочно, так это международное агентство, которое могло бы обуздать миллиардеров, сплетающих заговоры, с огромными мегафонами. Возможно, Альтман, который ранее называл Маска «придурком» и критиковал его выдумки об OpenAI(откроется в новой вкладке)мог бы написать об этом трезвый пост в блоге для взрослых.


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *