«Эпизоды галлюцинаций» ChatGPT продолжают насмехаться над OpenAI и могут отбросить его назад на миллионы, «но, похоже, его это не волнует».

«Эпизоды галлюцинаций» ChatGPT продолжают насмехаться над OpenAI и могут отбросить его назад на миллионы, «но, похоже, его это не волнует».


Добро пожаловать в уголок, где империи рушатся, а ваши миниатюры страдают от кривых покрасов! Присоединяйся к официальному телеграм-каналу Warhammer 40,000, где мы обсуждаем, как в очередной раз проиграть из-за одного несчастного кубика. Ждём твоего вступления с таким же нетерпением, с каким Император ждёт новую модель!

Warhammer 40k Telegram


Что тебе нужно знать

  • OpenAI находится под пристальным вниманием после того, как ChatGPT поделился неверной информацией о людях.
  • Европейская некоммерческая организация по защите конфиденциальности NOYB подала жалобу на фирму, сославшись на то, что она знала о ее неспособности исправить ложную информацию, генерируемую ChatGPT, но, похоже, ее это не волновало.
  • Организация хочет, чтобы регулятор расследовал деятельность OpenAI и заставил ее предоставить подробную информацию о том, как она использует данные людей.

Как технический энтузиаст с опытом работы в области искусственного интеллекта и конфиденциальности данных, я нахожу ситуацию вокруг ChatGPT OpenAI весьма тревожной. Недавняя жалоба, поданная NOYB на OpenAI из-за ее неспособности исправить вводящую в заблуждение информацию, генерируемую ChatGPT, и отсутствия прозрачности в отношении пользовательских данных, вызывает тревогу.


OpenAI подвергается новой критике после жалобы, поданной европейской некоммерческой организацией по защите конфиденциальности NOYB в Австрийское управление по защите данных. Рассматриваемая проблема связана со склонностью ChatGPT к «галлюцинациям» и его неспособностью исправить вводящую в заблуждение информацию, генерируемую ИИ, касающуюся отдельных лиц (как сообщает Quartz).

Я заметил, что галлюцинации чат-ботов не являются чем-то новым в сфере искусственного интеллекта. Недавно, во время запуска Microsoft Copilot, ранее известного как Bing Chat, некоторые пользователи выразили обеспокоенность тем, что технология регрессирует, что приводит к случаям, казалось бы, неправильных или непоследовательных ответов.

Жалоба, поданная NOYB, основана на GDPR ЕС, который устанавливает правила управления и обработки данных с помощью таких инструментов, как ChatGPT от OpenAI. Примечательно, что OpenAI признала, что у нее нет возможности исправлять неверную информацию, полученную с помощью модели ChatGPT.

OpenAI признала, что не может раскрыть источник информации ChatGPT или указать, какие пользовательские данные ChatGPT собирает и хранит. Примечательно, что OpenAI признала эту обеспокоенность, но, похоже, не обратила на это внимания.

В соответствии с GDPR пользователи из ЕС имеют право запрашивать исправления любой неточной информации о них, которая была обработана инструментом. Однако, если OpenAI не сможет выполнить этот запрос, они будут считаться не соответствующими правилам GDPR. Жалоба NOYB основана именно на этом факте.

По словам юриста NOYB по защите данных Маартье де Граафа:

Как наблюдатель, я не могу не подчеркнуть, что ответственность за выполнение запросов на доступ является общим обязательством для всех предприятий. Ведение записей данных обучения — это практическое решение, позволяющее сохранить определенный уровень осведомленности об источнике информации. К сожалению, оказывается, что с каждой новой инновацией некоторые компании считают, что их продукция освобождается от юридических обязательств.

Каков вероятный путь развития OpenAI?

«Эпизоды галлюцинаций» ChatGPT продолжают насмехаться над OpenAI и могут отбросить его назад на миллионы, «но, похоже, его это не волнует».

Как аналитик данных, я могу вам сказать, что во время недавнего интервью Сэм Альтман из OpenAI признал сложность создания инструментов, подобных ChatGPT, без использования контента, защищенного авторским правом. Важно отметить, что Microsoft и OpenAI в настоящее время вовлечены в различные юридические споры, касающиеся нарушений авторских прав.

Из-за ограниченного доступа к материалам, защищенным авторским правом, ответы, генерируемые искусственным интеллектом с помощью таких инструментов, как ChatGPT, могут быть не столь полными и точными. Организация считает поведение OpenAI неприемлемым из-за того, что они управляют инструментом, но не могут исправить неточности или раскрыть источники данных, лежащие в основе ее ответов.

NOYB, или «Никто в твоем теле», призывает Управление по защите данных (DPA) провести расследование деловой практики OpenAI. В частности, они заинтересованы в понимании того, как OpenAI обрабатывает данные и обучает свои модели. Кроме того, NOYB хочет, чтобы DPA заставило OpenAI предоставить пользователям доступ к их данным, обеспечивая прозрачность в отношении типа и объема личной информации, которую OpenAI собирает от своих пользователей.

Как технический энтузиаст, я могу вам сказать, что OpenAI может столкнуться с серьезными последствиями, если не будет соответствовать определенным требованиям. Потенциальный штраф может достигать 20 миллионов евро или 4% их мирового годового оборота — в зависимости от того, что больше. И это еще не все: любые затронутые пользователи, которые решат потребовать компенсацию за ущерб, добавят дополнительные расходы к счету OpenAI.

Смотрите также

2024-04-30 13:50