Правительство США будет ссылаться на Закон об оборонном производстве, чтобы потребовать от технологических компаний делиться с правительством США информацией о запуске крупных языковых моделей обучения и данными о безопасности. Об этом заявила министр торговли США Джина Раймондо на мероприятии в пятницу.
«Мы (правительство США) используем Закон об оборонном производстве для проведения расследования, которое требует от компаний обучать новых LLM каждый раз при запуске, время от времени делитесь с нами ситуациейно также делиться результатами данных по безопасности для рассмотрения».
В октябре прошлого года правительство США издало указ, требующий от Министерства торговли США предложить план управления ИИ до 28 числа этого месяца. Указ изначально предусматривает, что модели ИИ с числом более 1026 о провалах вычислительной мощности во время обучения необходимо сообщать правительству США. Тего стандарт немного выше, чем вычислительная мощность, используемая для обучения GPT-4.
Новости недели
[embed]https://www.youtube.com/watch?v=WKbVehggJpg[/embed]
По мнению SiliconANGEL, использование правительством США Закона об оборонном производстве для регулирования безопасности ИИ является довольно необычным шагом. Хотя ИИ используется в военных целях, Соединенные Штаты обычно регулируют технологическую отрасль посредством общих правил, а не Закона об оборонном производстве, законопроекта, призванного обеспечить военные поставки для обороны США.
Подразумеваемое
Ожидается, что этот мандат будет иметь далеко идущие последствия для технологических компаний. Это потребует от них большей прозрачности в отношении процессов разработки ИИ и существующих мер безопасности. Это также позволит правительству играть более активную роль в проверке безопасности системы искусственного интеллекта. Это особенно касается тех, кто представляет серьезную угрозу национальной экономической безопасности или общественному здоровью и безопасности.
Заключение
Решение правительства США потребовать от технологических компаний делиться данными по обучению крупных моделей и безопасности является важным шагом. Это поможет обеспечить безопасную, надежную и заслуживающую доверия разработку систем искусственного интеллекта. Этот шаг отражает растущее признание необходимости повышения прозрачности. Это также раскрывает недосмотр в быстро развивающейся области искусственного интеллекта.
Отказ от ответственности: Мы можем получать вознаграждение от некоторых компаний, о продуктах которых мы говорим, но наши статьи и обзоры всегда являются нашим честным мнением. Для получения более подробной информации вы можете ознакомиться с нашими редакционными правилами и узнать, как мы используем партнерские ссылки.
(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s);
js.id = id;
js.src="https://connect.facebook.net/en_US/sdk.js#xfbml=1&version=v3.2&appId=1623298447970991&autoLogAppEvents=1";
fjs.parentNode.insertBefore(js, fjs);
}(document, 'script', 'facebook-jssdk'));
Правительство США будет ссылаться на Закон об оборонном производстве, чтобы потребовать от технологических компаний делиться с правительством США информацией о запуске крупных языковых моделей обучения и данными о безопасности. Об этом заявила министр торговли США Джина Раймондо на мероприятии в пятницу.
«Мы (правительство США) используем Закон об оборонном производстве для проведения расследования, которое требует от компаний обучать новых LLM каждый раз при запуске, время от времени делитесь с нами ситуациейно также делиться результатами данных по безопасности для рассмотрения».
В октябре прошлого года правительство США издало указ, требующий от Министерства торговли США предложить план управления ИИ до 28 числа этого месяца. Указ изначально предусматривает, что модели ИИ с числом более 1026 о провалах вычислительной мощности во время обучения необходимо сообщать правительству США. Тего стандарт немного выше, чем вычислительная мощность, используемая для обучения GPT-4.
Новости недели
[embed]https://www.youtube.com/watch?v=WKbVehggJpg[/embed]По мнению SiliconANGEL, использование правительством США Закона об оборонном производстве для регулирования безопасности ИИ является довольно необычным шагом. Хотя ИИ используется в военных целях, Соединенные Штаты обычно регулируют технологическую отрасль посредством общих правил, а не Закона об оборонном производстве, законопроекта, призванного обеспечить военные поставки для обороны США.
Подразумеваемое
Ожидается, что этот мандат будет иметь далеко идущие последствия для технологических компаний. Это потребует от них большей прозрачности в отношении процессов разработки ИИ и существующих мер безопасности. Это также позволит правительству играть более активную роль в проверке безопасности системы искусственного интеллекта. Это особенно касается тех, кто представляет серьезную угрозу национальной экономической безопасности или общественному здоровью и безопасности.
Заключение
Решение правительства США потребовать от технологических компаний делиться данными по обучению крупных моделей и безопасности является важным шагом. Это поможет обеспечить безопасную, надежную и заслуживающую доверия разработку систем искусственного интеллекта. Этот шаг отражает растущее признание необходимости повышения прозрачности. Это также раскрывает недосмотр в быстро развивающейся области искусственного интеллекта.