Генеральный директор OpenAI Сэм Альтман признает, что «не существует проверенного руководства» после того, как бывший руководитель отдела согласования предположил, что компания отдает приоритет «блестящим продуктам», таким как GPT-4o, а не безопасности.

Генеральный директор OpenAI Сэм Альтман признает, что «не существует проверенного руководства» после того, как бывший руководитель отдела согласования предположил, что компания отдает приоритет «блестящим продуктам», таким как GPT-4o, а не безопасности.


Добро пожаловать в уголок, где империи рушатся, а ваши миниатюры страдают от кривых покрасов! Присоединяйся к официальному телеграм-каналу Warhammer 40,000, где мы обсуждаем, как в очередной раз проиграть из-за одного несчастного кубика. Ждём твоего вступления с таким же нетерпением, с каким Император ждёт новую модель!

Warhammer 40k Telegram


Что тебе нужно знать

  • OpenAI потеряла несколько своих топ-менеджеров на прошлой неделе после поставки новейшего GPT-4o.
  • Бывшие сотрудники выразили обеспокоенность по поводу того, что OpenAI активно пытается достичь эталона AGI, отодвигая при этом все меры безопасности на второй план.
  • Сообщения, попавшие на ветряную мельницу, указывают на то, что OpenAI заставляет своих увольняющихся сотрудников подписывать соглашения о неразглашении или рискует потерять принадлежащий им капитал, чтобы не дать им критиковать компанию или раскрывать ее внутренние дела, но генеральный директор Сэм Альтман опроверг эти утверждения.

Похоже, что в последние дни в OpenAI, ведущей исследовательской лаборатории искусственного интеллекта, произошли некоторые существенные изменения и отклонения. Двое ее руководителей, Илья Суцкевер и Сигнюлл, покинули компанию, публично не раскрыв причин своего решения. Также поступали сообщения о том, что других высших сотрудников попросили уйти или предложили выкуп.


Сообщается, что OpenAI находится на пороге революционного технологического прогресса с помощью своей последней модели GPT-4. Идея двух чат-ботов с искусственным интеллектом, участвующих в диалоге, отражающем человеческое взаимодействие, кажется почти фантастической. Тем не менее, это лишь одна из многих впечатляющих возможностей, которые Сэм Альтман, генеральный директор OpenAI, дразнит по поводу новой модели.

Как исследователь, я рад сообщить, что скоро появится обновленный голосовой режим для нашей модели GPT, которая в настоящее время называется GPT-40. Однако он еще не выпущен. Тем временем вы можете продолжать использовать существующий голосовой режим в приложении. Поверьте мне, улучшения и улучшения в новой версии оправдают ожидание! (15 мая 2024 г.)

See more

Последний выпуск компании, представляющий флагманскую модель, способную обрабатывать и анализировать аудио, визуальные и текстовые данные в реальном времени, не является единственным значительным достижением. Неожиданно несколько топ-менеджеров OpenAI недавно покинули организацию после презентации своей усовершенствованной модели ChatGPT, GPT-4o.

Я наблюдал, как Ян Лейке, руководитель отдела согласования и исполнительный директор по суперсогласованию OpenAI, делал объявление на X (ранее известном как Twitter) в прошлую пятницу. Он поделился, что присоединился к OpenAI с верой в то, что это идеальное место для изучения тонкостей «руководства и управления системами ИИ, намного превосходящими наш собственный интеллект».

Я ушел из OpenAI, где со вчерашнего дня занимал должности руководителя согласования, руководителя суперсогласования и исполнительного директора.)

See more

Ян открыто поделился с руководством OpenAI своими опасениями по поводу их внимания к следующим поколениям моделей, подчеркнув важность безопасности, мониторинга, готовности, безопасности, состязательной устойчивости, (супер)согласованности, конфиденциальности, социального воздействия и других аспектов. Он обнаружил, что эти проблемы сложно эффективно решить, и чувствовал, что OpenAI не добился достаточного прогресса в решении его проблем.

Ян предупредил, что разработка машин, более умных, чем люди, несет в себе значительные риски. OpenAI несет большую ответственность за человечество в этом начинании. Удивительно, но меры безопасности и процедуры, похоже, отошли на второй план, вместо этого акцент сместился на создание привлекательных инноваций.

Как ярый сторонник развития искусственного интеллекта, я не могу не подчеркнуть точку зрения Яна: OpenAI необходимо уделять приоритетное внимание безопасности превыше всего, если мы надеемся использовать потенциальные преимущества общего искусственного интеллекта (AGI) для человечества. Уважаемый исследователь в этой области подсчитал, что существует всего лишь 0,01% шанс, что мы не столкнемся с катастрофическими последствиями применения развитого ИИ. Единственное жизнеспособное решение, по их оценке, — вообще отказаться от создания такой технологии.

Готов ли мир к ОИИ без ограничений и регулирования?

Генеральный директор OpenAI Сэм Альтман признает, что «не существует проверенного руководства» после того, как бывший руководитель отдела согласования предположил, что компания отдает приоритет «блестящим продуктам», таким как GPT-4o, а не безопасности.

Высшее руководство OpenAI Сэм Альтман и Грег Брокман признают точку зрения Яна относительно шагов, предпринимаемых для обеспечения безопасности и приближения к важной вехе AGI. Эти действия включают расширение возможностей глубокого обучения, осторожное развертывание передовых систем и дополнительные стратегии.

Я заметил, что был некоторый шум вокруг ухода Яна из OpenAI и того, какое влияние это может оказать на миссию организации. Я хотел бы пролить свет на нашу точку зрения по этому вопросу. Прежде всего, мы хотим выразить нашу глубокую признательность Яну за неоценимый вклад в OpenAI во время его работы. Мы уверены, что он продолжит добиваться значительных успехов в области искусственного интеллекта за пределами организации.

See more

Однако руководители признались:

Как технический энтузиаст, я признаю, что достижение общего искусственного интеллекта (AGI) — это неизведанная территория без четкого плана действий. Однако я убежден, что приобретение практического опыта и знаний даст ценную информацию, которая поможет нам достичь этой цели. Мы стремимся максимизировать потенциальные выгоды, одновременно устраняя значительные риски, связанные с развитием ОИИ. Наша ответственность в этом процессе очень велика, и мы тщательно учитываем отзывы о наших действиях, чтобы убедиться, что мы движемся в правильном направлении.

В прошлом Сэм Альтман признавал, что не существует большой красной кнопки, которая могла бы остановить развитие ИИ.

Генеральный директор OpenAI Сэм Альтман признает, что «не существует проверенного руководства» после того, как бывший руководитель отдела согласования предположил, что компания отдает приоритет «блестящим продуктам», таким как GPT-4o, а не безопасности.

Илья Суцкевер и @signüll были одними из первых сотрудников OpenAI, которые объявили о своем уходе из компании на прошлой неделе. Причины их ухода из инновационной технологической компании подробно не разглашаются. Суцкевер заявил о своем намерении сконцентрироваться на проекте, который имеет для него личное значение. Сигнулл не раскрыл причину своего ухода, но поделился некоторыми соображениями о внутренней работе OpenAI, назвав Сэма Альтмана исключительным стратегическим мыслителем и вдохновителем.

Сигюль поддержал свои утверждения, сославшись на стратегическое партнерство OpenAI с технологическими гигантами Apple и Microsoft. Эта выгодная позиция предоставляет OpenAI неограниченный доступ к вычислительным мощностям, обширную клиентскую базу и возможность интеграции ChatGPT в такие культовые технологии, как iPhone. Фактически, OpenAI уже выпустила специальное приложение ChatGPT для macOS, отдавая предпочтение этой платформе Windows, что, возможно, предполагает, что значительное количество пользователей ChatGPT предпочитают устройства Apple, чтобы максимизировать функциональность службы.

«Сейчас OpenAI занимает центральное положение между двумя технологическими гигантами, охватывающими потребительский и корпоративный секторы. Влияние OpenAI укрепило его статус популярного названия «искусственного интеллекта» в глобальном сознании, превращая каждую воспринимаемую слабость в силу. единственная организация, способная повлиять на Google и поставить их в неловкое положение. Действительно впечатляющий подвиг».

Бывший сотрудник OpenAI раскрыл интригующую деталь: соучредитель Гарретт Альтман, как сообщается, включил замечательное положение в соглашение компании с Microsoft. Сигюль сообщил, что Microsoft не будет иметь никаких прав на интеллектуальную собственность, когда коммерческое подразделение OpenAI достигнет важной вехи в достижении сверхразума — искусственного общего интеллекта (AGI).

Когда OpenAI достигнет общего искусственного интеллекта (AGI), права интеллектуальной собственности Microsoft не будут иметь никакого значения, что не даст им контроля над технологией, несмотря на то, что она владеет 49% акций. Ожидается, что OpenAI и ее генеральный директор Сэм Альтман получат все похвалы за это новаторское достижение.

Бывшие сотрудники OpenAI вынуждены хранить молчание

Генеральный директор OpenAI Сэм Альтман признает, что «не существует проверенного руководства» после того, как бывший руководитель отдела согласования предположил, что компания отдает приоритет «блестящим продуктам», таким как GPT-4o, а не безопасности.

Ходили многочисленные слухи о недавних событиях в OpenAI, которые привели к неожиданному уходу ключевых руководителей, в том числе руководителя отдела выравнивания и безопасности.

Недавние бывшие сотрудники OpenAI хранят молчание о внутренней работе компании. Однако, согласно отчету Vox, OpenAI обеспечивает соблюдение соглашений о неразглашении и неунижении своих сотрудников, что означает, что им запрещено критиковать компанию или раскрывать конфиденциальную информацию даже после того, как они покинули организацию. Нарушение этого соглашения путем признания его существования также является нарушением.

В OpenAI работники, не соблюдающие условия NDA, могут лишиться накопленного капитала. Это подтвердил Дэниел Кокотаджио, бывший сотрудник, который рассказал, что отказался от принадлежащих ему акций после ухода из инновационной технологической фирмы, не согласившись на соглашение о неразглашении информации. Он объяснил, что его решение уйти было вызвано опасениями по поводу ответственного подхода OpenAI к вопросам общего искусственного интеллекта.

Как технический энтузиаст, у меня есть для вас хорошие новости относительно недавнего разъяснения генерального директора OpenAI Сэма Альтмана. Ранее существовали опасения, что бывшие сотрудники потеряют принадлежащий им капитал, если покинут компанию без подписания соглашения о неущемлении прав. Однако, по словам самого Сэма, это не так. Итак, если вы когда-либо работали в OpenAI и беспокоились о потере с трудом заработанных вознаграждений за акции, не бойтесь! Теперь вы можете уйти со спокойной душой, зная, что ваш капитал по-прежнему принадлежит вам.

Что касается обращения OpenAI с капиталом, я хочу уточнить, что мы никогда не требовали возврата чьих-либо опционов на акции, и мы не будем делать этого, если человек решит не подписывать соглашение о разделении или откажется соблюдать соглашение о неущемлении прав . Концепция вложенного капитала остается неизменной – она такая, какая есть. По состоянию на 18 мая 2024 г. это наша последовательная практика.

See more

По словам Альтмана:

«В наших прошлых соглашениях о выходе был пункт, допускающий возможность обратного выкупа акций, который мы никогда не использовали. Однако его включение было ошибкой и тем, что не должно было быть включено ни в какие документы или обсуждения. Я беру на себя полную ответственность за эту оплошность, поскольку я не знал об этом, пока работал с OpenAI».

Как преданный читатель новостей OpenAI, я могу сказать, что, согласно недавним заявлениям Альтмана, OpenAI последовательно уважает права своих сотрудников, не требуя от них подписания соглашений о раздельном освобождении. Он также упомянул, что команда активно работает над пересмотром стандартной выходной документации, чтобы обеспечить более оптимизированный процесс.

Смотрите также

2024-05-20 13:20