Bing Open AI chatbot

Закон США защищает чат-ботов с искусственным интеллектом от клеветы

С момента запуска ChatGPT преобладали чат-боты с искусственным интеллектом, такие как ChatGPT. Однако распространение этих чат-ботов также означает, что проблемы назревают. По правде говоря, OpenAI удивил мир возможностями ChatGPT. По этой причине было много возражений против его использования, а некоторые даже связаны с судебными баталиями. Однако в США, стране происхождения ChatGPT, закон может просто защищать ChatGPT. Статья 230 Закона США о пристойности в коммуникациях, изданного в 1996 году, гласит, что компания не обязана нести юридическую ответственность за контент, опубликованный третьими лицами или пользователями на ее платформе (статья 230).

Однако в ближайшие несколько месяцев Верховный суд США решит, следует ли ослаблять эту защиту. Это также может повлиять на чат-ботов с искусственным интеллектом, таких как ChatGPT. Ожидается, что к концу июня судьи примут решение о том, можно ли подать в суд на YouTube, принадлежащий Alphabet, за рекомендацию видео пользователям. Хотя платформы освобождаются от ответственности за видео, загруженные пользователями, применяются ли средства защиты Раздела 230, когда они используют алгоритмы для рекомендации контента пользователям?

Эксперты в области технологий и права говорят, что дело имеет последствия не только для социальных сетей. Они считают, что вердикт может спровоцировать новые дебаты о том, могут ли такие компании, как OpenAI и Google, которые разрабатывают чат-ботов с искусственным интеллектом, могут быть защищены от юридических претензий, таких как клевета или вторжение в частную жизнь. Эксперты отмечают, что это связано с тем, что алгоритм, используемый ChatGPT и другими, аналогичен тому, как он рекомендует видео пользователям YouTube.

Чат-бот Bing Open с искусственным интеллектом

Что делают чат-боты с искусственным интеллектом?

Чат-боты с искусственным интеллектом обучены генерировать огромное количество оригинального контента, и Раздел 230 обычно применяется к стороннему контенту. Судам еще предстоит решить, будут ли защищены ответы чат-ботов ИИ. Сенатор-демократ заявил, что право на неприкосновенность не может применяться к инструментам генеративного ИИ, потому что эти инструменты «создают контент». «Раздел 230 касается защиты пользователей и веб-сайтов, на которых размещается и организуется речь пользователей. Это не должно изолировать компании от последствий их собственных действий и продуктов», — сказал он.

Технологическая индустрия настаивает на сохранении Раздела 230. Некоторые люди думают, что такие инструменты, как ChatGPT, похожи на поисковые системы, предоставляющие существующий контент пользователям на основе запросов. «ИИ на самом деле ничего не создает. Он просто представляет существующий контент по-другому или в другом формате», — сказал Карл Сабо, вице-президент и главный юрисконсульт торговой группы технологической отрасли NetChoice.

Сабо сказал, что если Раздел 230 будет ослаблен, это создаст невыполнимую задачу для разработчиков ИИ. Это также подвергнет их потоку судебных исков, которые могут задушить инновации. Некоторые эксперты предполагают, что суды могут занять нейтральную позицию и изучить контекст, в котором модели ИИ генерируют потенциально опасные реакции.

Гизчина Новости недели


Чат-бот Snapchat My Ai

Льготы по освобождению могут по-прежнему применяться в тех случаях, когда модель ИИ способна объяснить существующие источники. Но известно, что чат-боты, такие как ChatGPT, генерируют ложные ответы, которые, по мнению экспертов, могут быть незащищенными.

Ханни Фарид, технолог и профессор Univ. из Калифорнии, Беркли, сказал, что надумано думать, что разработчики ИИ должны быть защищены от судебных исков из-за моделей, которые они «программируют, обучают и развертывают».

«Если компании могут быть привлечены к гражданской ответственности, они производят более безопасные продукты; если они освобождены, продукты, как правило, менее безопасны», — сказал Фарид.

Проблемы с инструментами искусственного интеллекта, такими как ChatGPT

Чат-боты с искусственным интеллектом сейчас очень популярны в современном мире. Это связано с тем, что они обеспечивают эффективный и удобный способ взаимодействия людей. Эти чат-боты способны обрабатывать естественный язык и давать соответствующие ответы на запросы. Это делает их полезным инструментом для обслуживания клиентов, продаж и поддержки. Однако были высказаны опасения по поводу безопасности использования чат-ботов с искусственным интеллектом, в основном с точки зрения конфиденциальности и безопасности.

Одной из основных проблем, связанных с чат-ботами с искусственным интеллектом, может быть пробел для утечки данных и кибератак. Поскольку чат-боты часто требуют от пользователей предоставления личной информации, такой как имя, адрес и платежные реквизиты, существует риск того, что эта информация может быть украдена. Чтобы снизить этот риск, компании должны обеспечить безопасность своих чат-ботов и использовать методы шифрования для защиты пользовательских данных.

Еще одна проблема, связанная с чат-ботами с искусственным интеллектом, заключается в том, что система может уступить предвзятости. Поскольку эти чат-боты запрограммированы людьми, они могут быть предубеждениями и стереотипами, существующими в обществе. Например, чат-бот, предназначенный для проверки соискателей, может дискриминировать определенные группы на основе их расы, пола или этнической принадлежности. Чтобы избежать этого, разработчики чат-ботов должны убедиться, что их алгоритмы почти идеальны и беспристрастны.

Кроме того, существует риск того, что чат-боты с искусственным интеллектом не смогут обрабатывать сложные запросы. Сюда входят те, которые связаны с психическим здоровьем или домашним насилием. В таких случаях пользователи могут не получить необходимую им поддержку. Конечно, это одна из областей, где люди хотят, чтобы эти чат-боты несли ответственность. Если они дадут неправильный ответ в определенных сценариях, результат может быть очень плохим.

Технология AI Chatbot

Заключительные слова

Несмотря на эти опасения, чат-боты с искусственным интеллектом могут быть безопасными в использовании, если их правильно использовать. Некоторые люди хотят использовать чат-ботов с искусственным интеллектом, чтобы заменить врачей и других экспертов. Это не идеальное использование этого инструмента. Разработчики должны любой ценой избегать предвзятости и обеспечивать инклюзивность системы. Также нельзя оставлять чат-ботов без присутствия человека. Время от времени их следует проверять и при необходимости обновлять. Чтобы обеспечить их безопасное использование, разработчики должны решить проблемы, связанные с безопасностью, конфиденциальностью, предвзятостью и ограничениями чат-ботов. При наличии правильных инструментов чат-боты с искусственным интеллектом могут очень легко искать информацию. Это также может быть довольно приличным помощником для многих людей, которым нужна какая-то помощь с информацией.


Комментарии

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *