Google теперь может использовать общедоступные данные для обучения и создания продуктов искусственного интеллекта. изменения политики конфиденциальности(откроется в новой вкладке).

По состоянию на 1 июля, недавно скорректированная политика технологического гиганта(откроется в новой вкладке) гласит: «Google использует информацию для улучшения наших услуг и разработки новых продуктов, функций и технологий, которые приносят пользу нашим пользователям и обществу. Например, мы используем общедоступную информацию, чтобы обучать модели искусственного интеллекта Google и создавать продукты и функции, такие как Google Translate, Bard и возможности облачного ИИ».

СМОТРИТЕ ТАКЖЕ: Протест API Reddit только что получил еще больше NSFW

Ранее в политике говорилось только, что общедоступная информация может использоваться для обучения «языковых моделей» Google, и упоминалось только одно упоминание о Google Translate.

Хотя на данный момент обновление не меняет пользовательский интерфейс и не влияет напрямую на продукты Google, языковая корректировка сигнализирует о том, что компания больше склоняется к своей заявке на ИИ, и что поведение широкой публики в поиске может быть важным фактором в ее дальнейшее развитие.

Google намекнул на несколько входов в пространство ИИ, включая возможности покупок с помощью ИИ, функции Google Lens и даже генератор текста в музыку.

Хотя чат-бот Google с искусственным интеллектом, Bard, поначалу вызвал не слишком восторженный отклик, он быстро догнал других чат-ботов на рынке. Google также объявил о грядущем поиске на основе ИИ, известном как Search Generative Experience (SGE), который дополнит линейку предложений ИИ. По иронии судьбы, материнская компания Google, Alphabet, только в прошлом месяце предупредила своих сотрудников о рисках безопасности, связанных с использованием чат-ботов, и Google выпустила собственную платформу Secure AI Framework, чтобы повысить кибербезопасность в отношении угроз ИИ.

В целом озабоченность по поводу конфиденциальности, интеллектуальной собственности и влияния этих моделей на человеческий труд и творчество мешала внедрению новых продуктов ИИ. А против OpenAI подан коллективный иск(откроется в новой вкладке)создатель популярного ИИ-бота ChatGPT, только в прошлом месяце заявил, что компания украла «практически все данные, которыми она обменивалась в Интернете, которые она могла взять» без уведомления, согласия или компенсации.

Некоторые пользователи сети прислушались к обновлению Google. спорный ИИ ClearView(откроется в новой вкладке), которая создала приложение для распознавания лиц уровня правоохранительных органов, по сообщениям, извлекая миллиарды изображений лиц из социальных сетей и других платформ. В 2022 году ClearView AI урегулировала судебный процесс с ACLU, запретив компании продавать или предоставлять доступ к своей базе данных распознавания лиц частным компаниям и частным лицам.

На данный момент Google, похоже, заблаговременно предупреждает пользователей о своих будущих планах в области искусственного интеллекта. Просто имейте в виду, что ваши поиски могут сделать бота с искусственным интеллектом умнее.

var facebookPixelLoaded = false; window.addEventListener('load', function(){ document.addEventListener('scroll', facebookPixelScript); document.addEventListener('mousemove', facebookPixelScript); }) function facebookPixelScript() { if (!facebookPixelLoaded) { facebookPixelLoaded = true; document.removeEventListener('scroll', facebookPixelScript); document.removeEventListener('mousemove', facebookPixelScript); !function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version='2.0';n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,'script','//connect.facebook.net/en_US/fbevents.js'); fbq('init', '1453039084979896'); fbq('track', "PageView"); } }

Google корректирует политику конфиденциальности, разрешая использование общедоступных данных для обучения ИИ

Comments

No comments yet. Why don’t you start the discussion?

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *