Будущее «ChatGPT‑момент» для человекоподобных роботов отложено на ближайшие десять лет

Будущее «ChatGPT‑момент» для человекоподобных роботов отложено на ближайшие десять лет

22 hardware

Кратко о ситуации в отрасли человекоподобной робототехники

Что обсуждаютКто говоритКлючевые идеи
Время появления прорываВан Сяоган (Daxiao Robotics), Дженсен Хуанг (Nvidia)Прорыв возможен уже через 2‑3 года благодаря масштабированию данных и симуляциям.
Шао Хао (Vivo)Ожидается около десятилетия, пока не появятся дешёвые, разнообразные реальные данные.
Текущее состояниеКитайские разработчикиДемонстрация хореографии и акробатики на новогоднем концерте, но движения «запрограммированы» и выполняются в контролируемой среде.
Проблемы, которые остаютсяВсе участники рынка1) Ограниченный доступ к большим объёмам дешёвых данных;
2) Стабильность и надёжность кинетических систем;
3) Доверие общественности.
Этические и социальные вопросыДженни Шипли (бывшая премьер‑Новой Зеландии)Люди не должны ожидать эмоциональных суждений от роботов. Необходимо регулировать их функции, обеспечивать безопасность данных и управлять ответственностью.

Что происходит сейчас

1. Воздействие ChatGPT
Открытие модели в 2022 году изменило IT‑рынок и глобальную экономику. Это событие стало «пульсом» для дальнейшего развития ИИ.

2. Прогнозы по человекоподобным роботам
- *Ван Сяоган* утверждает, что через пару лет можно достичь значительного прогресса, если увеличить объём данных и использовать симуляции мировых моделей.
- *Дженсен Хуанг* поддерживает идею цифровых двойников как инструмента ускорения обучения.
- *Шао Хао* считает, что полноценный прорыв потребует около десяти лет из‑за нехватки реальных данных.

3. Показатели в 2024 году
Китайские роботы продемонстрировали акробатические и боевые навыки на национальном концерте. Однако движения были «запрограммированы» по шаблонам живых хореографов, а тесты проводились в статичных условиях.


Ключевые барьеры

БарьерПочему это важно
Недостаток дешевых данныхБез большого объёма реальных наблюдений роботы не могут адаптироваться к бытовой среде.
Надёжность движенийСтабильность и безопасность критичны для взаимодействия с людьми.
Общественное довериеЛюди опасаются, что роботы будут принимать эмоциональные решения; требуется прозрачная регуляция.

Как подготовиться к массовому внедрению

1. Стандарты безопасности – разработать нормы эксплуатации и обслуживания.
2. Социальные политики – обеспечить достойное применение освобождающихся человеческих ресурсов.
3. Защита данных – сбора визуальной и аудио информации не должно угрожать кибербезопасности.


Регуляторный пример

Сингапур уже предложил рамочные правила для ИИ‑агентов, которые могут служить моделью для робототехники. Дженни Шипли подчёркивает важность ясной структуры управления и распределения ответственности: «Я не знаю, кто сейчас за рулём». Это подчёркивает необходимость прозрачности в управлении и регулировании новых технологий.


Итог:
Выход ChatGPT подтвердил огромный потенциал ИИ. В области человекоподобных роботов прогнозы разделились – от 2 до 10 лет до реального прорыва. На данный момент демонстрации впечатляют, но для практического применения нужны масштабные данные, надёжность движений и общественное доверие, которые можно обеспечить только через стандарты безопасности и прозрачное регулирование.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать