Microsoft борется со значительной утечкой данных, вызванной исследователями искусственного интеллекта. Команда компании по искусственному интеллекту, которая загружала данные обучения, чтобы другие исследователи могли обучить модели искусственного интеллекта распознаванию изображений, случайно раскрыла конфиденциальные данные. Утечка данных включала многочисленные «секреты, закрытые ключи, пароли и более 30 000 внутренних сообщений Microsoft Teams». Информация исходит от Визкомпании облачной безопасности, которая первой заметила утечку данных.
Утечка данных Microsoft: 38 ТБ частных данных раскрыты через токен SAS
Microsoft активно участвует в активизации усилий в области искусственного интеллекта. Компания инвестировала миллиарды в OpenAI, чтобы построить прочное партнерство для использования и развития ChatGPT. В результате компания обновила своего Bing Assistant, который теперь работает на ChatGPT 4. Она также интегрирует ИИ в большинство своих сервисов, начав то, что мы могли бы назвать революцией ИИ в своей экосистеме. Однако некоторые несчастные случаи могут произойти, когда компания пытается продвигать и развивать свой ИИ. Так обстоит дело и с этой массовой утечкой данных.
Microsoft, в официальном отчетотметил, что «никакие данные клиентов не были раскрыты, и никакие другие внутренние службы не подверглись риску из-за этой проблемы». Компания также отмечает, что от этих клиентов не требовалось никаких действий. Ссылка на данные, включающие файлы, была создана с помощью функции Azure под названием «токены SAS». Так называемые «токены SAS» позволяют пользователям быстро и легко создавать ссылки для совместного использования. Wiz впервые обнаружил доступ к данным 22 июня и предупредил Microsoft. Токен был отозван на следующий день, и Microsoft заявляет, что устранила проблему, изменив токены SAS, которые стали более либеральными, чем предполагалось.
Новости недели
[embed]https://www.youtube.com/watch?v=I8uJIidlB2c[/embed]
«Раскрытая информация состояла из информации, уникальной для двух бывших сотрудников Microsoft и рабочих станций этих бывших сотрудников», — заявили в компании. «Никакие данные клиентов не были раскрыты, и никакие другие службы Microsoft не подверглись риску из-за этой проблемы. Клиентам не нужно предпринимать никаких дополнительных действий, чтобы оставаться в безопасности. Как и любой секрет, токены SAS необходимо создавать и обращаться с ними соответствующим образом. Как всегда, мы настоятельно рекомендуем клиентам следовать нашим лучшим практикам при использовании токенов SAS, чтобы минимизировать риск непреднамеренного доступа или злоупотреблений». – представитель Microsoft.
Гонка за искусственным интеллектом представляет риск для конфиденциальных данных – если не будут приняты дополнительные меры безопасности
К сожалению, с развитием ИИ подобные события могут происходить чаще. Компании сталкиваются с новыми рисками, пытаясь более широко использовать возможности ИИ. Поскольку все больше их инженеров будут работать с огромными объемами обучающих данных, это потребует дополнительных проверок безопасности и мер безопасности.
Как отмечает Wiz, токены SAS в настоящее время представляют угрозу безопасности. Они позволяют обмениваться информацией с внешними неопознанными личностями. Чтобы повысить безопасность SAS, компаниям необходимо выбрать Service SAS с сохраненной политикой доступа. Эта конкретная функция связывает токен SAS с политикой на стороне сервера. Он предоставляет возможность управлять политиками и отзывать их централизованно. Стандартным токенам SAS учетной записи не хватает управления и безопасности. Следовательно, ошибки создания токенов могут легко остаться незамеченными, раскрывая огромные объемы данных.
Будем надеяться, что Microsoft усвоит эту ошибку и улучшит меры безопасности, чтобы избежать подобных утечек данных в будущем. Все остальные компании, работающие с ИИ, должны делать то же самое, чтобы избежать попадания огромного количества конфиденциальных данных в руки злых людей.
(function(d, s, id) {
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) return;
js = d.createElement(s);
js.id = id;
js.src="https://connect.facebook.net/en_US/sdk.js#xfbml=1&version=v3.2&appId=1623298447970991&autoLogAppEvents=1";
fjs.parentNode.insertBefore(js, fjs);
}(document, 'script', 'facebook-jssdk'));
Microsoft борется со значительной утечкой данных, вызванной исследователями искусственного интеллекта. Команда компании по искусственному интеллекту, которая загружала данные обучения, чтобы другие исследователи могли обучить модели искусственного интеллекта распознаванию изображений, случайно раскрыла конфиденциальные данные. Утечка данных включала многочисленные «секреты, закрытые ключи, пароли и более 30 000 внутренних сообщений Microsoft Teams». Информация исходит от Визкомпании облачной безопасности, которая первой заметила утечку данных.
Утечка данных Microsoft: 38 ТБ частных данных раскрыты через токен SAS
Microsoft активно участвует в активизации усилий в области искусственного интеллекта. Компания инвестировала миллиарды в OpenAI, чтобы построить прочное партнерство для использования и развития ChatGPT. В результате компания обновила своего Bing Assistant, который теперь работает на ChatGPT 4. Она также интегрирует ИИ в большинство своих сервисов, начав то, что мы могли бы назвать революцией ИИ в своей экосистеме. Однако некоторые несчастные случаи могут произойти, когда компания пытается продвигать и развивать свой ИИ. Так обстоит дело и с этой массовой утечкой данных.
Microsoft, в официальном отчетотметил, что «никакие данные клиентов не были раскрыты, и никакие другие внутренние службы не подверглись риску из-за этой проблемы». Компания также отмечает, что от этих клиентов не требовалось никаких действий. Ссылка на данные, включающие файлы, была создана с помощью функции Azure под названием «токены SAS». Так называемые «токены SAS» позволяют пользователям быстро и легко создавать ссылки для совместного использования. Wiz впервые обнаружил доступ к данным 22 июня и предупредил Microsoft. Токен был отозван на следующий день, и Microsoft заявляет, что устранила проблему, изменив токены SAS, которые стали более либеральными, чем предполагалось.
Новости недели
[embed]https://www.youtube.com/watch?v=I8uJIidlB2c[/embed]«Раскрытая информация состояла из информации, уникальной для двух бывших сотрудников Microsoft и рабочих станций этих бывших сотрудников», — заявили в компании. «Никакие данные клиентов не были раскрыты, и никакие другие службы Microsoft не подверглись риску из-за этой проблемы. Клиентам не нужно предпринимать никаких дополнительных действий, чтобы оставаться в безопасности. Как и любой секрет, токены SAS необходимо создавать и обращаться с ними соответствующим образом. Как всегда, мы настоятельно рекомендуем клиентам следовать нашим лучшим практикам при использовании токенов SAS, чтобы минимизировать риск непреднамеренного доступа или злоупотреблений». – представитель Microsoft.
Гонка за искусственным интеллектом представляет риск для конфиденциальных данных – если не будут приняты дополнительные меры безопасности
К сожалению, с развитием ИИ подобные события могут происходить чаще. Компании сталкиваются с новыми рисками, пытаясь более широко использовать возможности ИИ. Поскольку все больше их инженеров будут работать с огромными объемами обучающих данных, это потребует дополнительных проверок безопасности и мер безопасности.
Как отмечает Wiz, токены SAS в настоящее время представляют угрозу безопасности. Они позволяют обмениваться информацией с внешними неопознанными личностями. Чтобы повысить безопасность SAS, компаниям необходимо выбрать Service SAS с сохраненной политикой доступа. Эта конкретная функция связывает токен SAS с политикой на стороне сервера. Он предоставляет возможность управлять политиками и отзывать их централизованно. Стандартным токенам SAS учетной записи не хватает управления и безопасности. Следовательно, ошибки создания токенов могут легко остаться незамеченными, раскрывая огромные объемы данных.
Будем надеяться, что Microsoft усвоит эту ошибку и улучшит меры безопасности, чтобы избежать подобных утечек данных в будущем. Все остальные компании, работающие с ИИ, должны делать то же самое, чтобы избежать попадания огромного количества конфиденциальных данных в руки злых людей.