OpenAI назначил «главу по подготовке», который будет курировать безопасность искусственного интеллекта

OpenAI назначил «главу по подготовке», который будет курировать безопасность искусственного интеллекта

22 software

OpenAI назначил нового руководителя по безопасности искусственного интеллекта

В свете растущих вопросов о безопасном использовании ИИ компания OpenAI объявила о новом члене штата – Дилан Скандинаро в должности *Head of Preparedness* (директор по готовности).


Кто такой Дилан Скандинаро?

ПериодКомпанияРоль
Май 2023 – февраль 2024AnthropicРуководитель проектов по безопасности ИИ
Сентябрь 2022 – май 2025DeepMind (Google)Специалист по синтетическим данным для обучения Gemini
До 2022Palantir, Unity Technologies, Everyday RobotsРазличные позиции в области машинного обучения и разработки ПО

Скандинаро известен тем, что на предыдущих местах работы занимался аналогичными задачами по снижению рисков при разработке ИИ‑моделей.


Что означает новое назначение?

* Роль: Ведущая позиция в команде «готовности» – ответственный за подготовку и внедрение мер, которые позволят разрабатывать мощные модели без угрозы для пользователей.
* Условия: Гонорар $550 000 в год плюс акции OpenAI.
* Контекст: С 2023 года в компании действует «команда готовности», которую ранее возглавлял Александр Мадрий, специалист из MIT.


Как видит ситуацию руководитель OpenAI

Генеральный директор Сэм Альтман отметил, что с ускорением развития моделей компания будет сталкиваться с новыми и более серьёзными рисками. Он подчеркнул:

> «Мы будем работать над очень мощными моделями. Это потребует соответствующих мер предосторожности, чтобы обеспечить дальнейшее предоставление больших выгод».

Альтман выразил уверенность в компетенциях Скандинаро:

*«Он лучший кандидат на эту роль из всех людей, которых я когда-либо встречал», – сказал он.*
Он добавил, что благодаря новому руководителю команда сможет сосредоточиться на долгосрочной безопасности и «будет спать спокойнее».


Что ожидается от Скандинаро?

Скандинаро сам признался, что быстро развивающиеся ИИ‑модели могут вызвать «экстремальный и даже необратимый ущерб». Поэтому перед ним стоит задача:

* разработать стратегии минимизации рисков;
* внедрить практики безопасного обучения и эксплуатации моделей;
* координировать усилия всего коллектива OpenAI в этой области.


Итог

OpenAI расширяет свою структуру безопасности, привлекая опытного специалиста из ведущих компаний отрасли. Новое назначение подчеркивает стремление компании к ответственной разработке ИИ и подготовке к возможным вызовам будущего.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать