OpenAI назначил «главу по подготовке», который будет курировать безопасность искусственного интеллекта
OpenAI назначил нового руководителя по безопасности искусственного интеллекта
В свете растущих вопросов о безопасном использовании ИИ компания OpenAI объявила о новом члене штата – Дилан Скандинаро в должности *Head of Preparedness* (директор по готовности).
Кто такой Дилан Скандинаро?
| Период | Компания | Роль |
|---|---|---|
| Май 2023 – февраль 2024 | Anthropic | Руководитель проектов по безопасности ИИ |
| Сентябрь 2022 – май 2025 | DeepMind (Google) | Специалист по синтетическим данным для обучения Gemini |
| До 2022 | Palantir, Unity Technologies, Everyday Robots | Различные позиции в области машинного обучения и разработки ПО |
Скандинаро известен тем, что на предыдущих местах работы занимался аналогичными задачами по снижению рисков при разработке ИИ‑моделей.
Что означает новое назначение?
* Роль: Ведущая позиция в команде «готовности» – ответственный за подготовку и внедрение мер, которые позволят разрабатывать мощные модели без угрозы для пользователей.
* Условия: Гонорар $550 000 в год плюс акции OpenAI.
* Контекст: С 2023 года в компании действует «команда готовности», которую ранее возглавлял Александр Мадрий, специалист из MIT.
Как видит ситуацию руководитель OpenAI
Генеральный директор Сэм Альтман отметил, что с ускорением развития моделей компания будет сталкиваться с новыми и более серьёзными рисками. Он подчеркнул:
> «Мы будем работать над очень мощными моделями. Это потребует соответствующих мер предосторожности, чтобы обеспечить дальнейшее предоставление больших выгод».
Альтман выразил уверенность в компетенциях Скандинаро:
*«Он лучший кандидат на эту роль из всех людей, которых я когда-либо встречал», – сказал он.*
Он добавил, что благодаря новому руководителю команда сможет сосредоточиться на долгосрочной безопасности и «будет спать спокойнее».
Что ожидается от Скандинаро?
Скандинаро сам признался, что быстро развивающиеся ИИ‑модели могут вызвать «экстремальный и даже необратимый ущерб». Поэтому перед ним стоит задача:
* разработать стратегии минимизации рисков;
* внедрить практики безопасного обучения и эксплуатации моделей;
* координировать усилия всего коллектива OpenAI в этой области.
Итог
OpenAI расширяет свою структуру безопасности, привлекая опытного специалиста из ведущих компаний отрасли. Новое назначение подчеркивает стремление компании к ответственной разработке ИИ и подготовке к возможным вызовам будущего.
Комментарии (0)
Оставьте отзыв — пожалуйста, будьте вежливы и по теме.
Войти, чтобы комментировать