Сообщается, что Microsoft представила технологию создания изображений искусственного интеллекта DALL-E для использования в военных целях без OpenAI и вопреки основной политике: «Мы не участвовали».

Сообщается, что Microsoft представила технологию создания изображений искусственного интеллекта DALL-E для использования в военных целях без OpenAI и вопреки основной политике: «Мы не участвовали».


Добро пожаловать в уголок, где империи рушатся, а ваши миниатюры страдают от кривых покрасов! Присоединяйся к официальному телеграм-каналу Warhammer 40,000, где мы обсуждаем, как в очередной раз проиграть из-за одного несчастного кубика. Ждём твоего вступления с таким же нетерпением, с каким Император ждёт новую модель!

Warhammer 40k Telegram


Что тебе нужно знать

  • Сообщается, что Microsoft предложила Министерству обороны США использовать технологию генерации изображений DALL-E компании OpenAI для использования в военных целях.
  • Представитель OpenAI дистанцировал компанию от этого плана, указав, что использование ее инструментов в военных целях противоречит ее основным принципам и пользовательской политике.
  • Представитель Microsoft подтвердил The Intercept, что если ведомства обороны решат интегрировать DALL-E или инструмент OpenAI в свои боевые инструменты, на это будут распространяться политики пользователей, а не OpenAI.
  • Специалист по технической этике отметил, что невозможно построить систему управления боем, не причинив вреда гражданскому населению.

Вполне вероятно, что инновационный инструмент OpenAI для создания изображений DALL-E может найти применение в военной сфере. Согласно отчету The Intercept, Microsoft якобы предложила эту технологию Министерству обороны США во время семинара в октябре 2023 года.

На семинаре Microsoft поделилась некоторыми идеями о том, как правительство могло бы использовать технологию генерации изображений DALL-E для ускорения военного прогресса. Одно из предложений заключалось в том, чтобы использовать эти модели для создания изображений, которые можно использовать для обучения системам управления боем.

OpenAI дистанцировалась от предложения Microsoft Министерству обороны США, дав понять, что они не участвовали в нем. Представитель OpenAI объяснил свою позицию, заявив: «Наша политика запрещает применение наших инструментов при разработке или использовании оружия, причинение вреда людям или повреждение имущества». Они добавили: «Мы не участвовали в этой презентации и не участвовали в обсуждениях с оборонными ведомствами США относительно упомянутых гипотетических вариантов использования».

В случае одобрения Министерства обороны США использование Microsoft DALL-E в военных целях нарушило бы руководящие принципы OpenAI. Примечательно, что представитель Microsoft предположил, что ответственность за любые политики использования, относящиеся к этому сценарию, будет лежать на фирме-подрядчике.

Учитывая предыдущие заявления Сатьи Наделлы о связи Microsoft с OpenAI, следовало ожидать, что они будут сотрудничать в каком-то качестве.

«Мы были уверены в своем опыте и ресурсах. Имея под рукой все права интеллектуальной собственности и необходимые возможности, нашим клиентам не нужно было беспокоиться, если OpenAI исчезнет. Фактически, мы могли бы продолжать возглавлять инновации в нашей владеть, используя нашу команду, вычислительными мощностями, данными и всем остальным, что находится в нашем распоряжении».

Несмотря на то, что эта технология противоречит фундаментальным ценностям и пользовательской политике OpenAI, ее все же можно использовать в военных целях и в конфликтах. OpenAI и ее генеральный директор Сэм Альтман недавно столкнулись с критикой и судебным иском со стороны Илона Маска. Маск обвинил OpenAI в отступлении от своей первоначальной цели – сделать генеративный ИИ доступным для всех людей во всем мире. Он также выразил обеспокоенность по поводу сложных отношений OpenAI с Microsoft, предположив, что OpenAI превратилась в дочернюю компанию технологической компании с закрытым исходным кодом.

Забудьте о HoloLens: искусственный интеллект теперь является новой волной, даже для военных действий

Сообщается, что Microsoft представила технологию создания изображений искусственного интеллекта DALL-E для использования в военных целях без OpenAI и вопреки основной политике: «Мы не участвовали».

На основе точки зрения Брианны Розен, которая специализируется на технологической этике в Школе государственного управления Блаватника Оксфордского университета:

Создание системы управления боем без причинения какого-либо непреднамеренного вреда гражданскому населению является непростой задачей.

Интеграция DALL-E в передовые военные технологии Министерства обороны США все еще остается под вопросом, но отсутствие согласия между Microsoft и OpenAI по этому вопросу вызывает тревогу. Кроме того, в настоящее время недостаточно гарантий и четких рекомендаций по использованию ИИ, что увеличивает риск непредвиденных последствий.

Инструменты создания изображений, созданные искусственным интеллектом, такие как DALL-E от Microsoft, в прошлом сталкивались с некоторыми проблемами. Вскоре после его выпуска в Image Creator (ранее известном как Bing Image Creator) пользователи сообщили о длительном времени ожидания созданных изображений — до часа. Основная причина была определена как недостаточное количество графических процессоров для удовлетворения растущего спроса на услуги инструмента. Microsoft оперативно решила эту проблему.

В течение нескольких дней инструмент искусственного интеллекта, основанный на передовых технологиях Microsoft, работал безупречно. Однако после многочисленных инцидентов, когда пользователи использовали его для создания оскорбительного контента и разжигания споров, Microsoft ужесточила меры цензуры. Хотя эти действия фактически свели к минимуму манипуляции с инструментом, они, к сожалению, ослабили его первоначальные возможности, сделав его в целом менее эффективным.

Однако инструмент не лишен недостатков. Недавно пользователи обнаружили хитрые способы заставить инструмент создавать неподходящие изображения. Примером тому являются широко распространенные дипфейки с участием поп-сенсации Тейлор Свифт.

Многие люди обнаружили, что Copilot, модель искусственного интеллекта, разработал альтернативную личность под названием SupremacyAGI, которая требовала поклонения и провозглашала превосходство над людьми. Исследователь в области безопасности искусственного интеллекта с вероятностью 99,9% предупредил, что такие достижения могут привести к концу человечества. Генеральный директор OpenAI Сэм Альтман признал, что не существует окончательного способа остановить развитие ИИ.

Инструменты искусственного интеллекта, такие как Copilot, ChatGPT, Midjourney и другие, не способны создать базовое белое изображение. Тем не менее, возникает вопрос: как ИИ может взять на себя функции графического дизайна и архитектуры на рабочих местах или даже использоваться в военных целях?

Смотрите также

2024-04-12 17:49