На днях прошли слушания Сэма Альтмана из OpenAI в Сенате США, где он выступал по вопросу регулирования ИИ-моделей. Итак что мы узнали из него:
1) Риски биологического оружия: Сэм Альтман предупредил о возможном незаконном использовании ИИ для создания биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.
2) Потеря рабочих мест: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.
3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и контроля деятельности ИИ, если его возможности превышают определенные пределы.
4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать ИИ-модели перед их внедрением, включая проверки на самовоспроизведение и утечку данных.
5) Независимые проверки: он рекомендовал проведение независимых проверок, чтобы убедиться, что ИИ-модели соответствуют установленным стандартам безопасности.
6) ИИ как инструмент: Альтман подчеркнул, что ИИ, в особенности передовые модели, такие как GPT-4, следует рассматривать как инструменты, а не разумных существ.
7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал, что в научном сообществе продолжаются дискуссии о возможном сознании ИИ.
8) Военное применение: Альтман признал потенциал использования ИИ в военных целях, таких как автономные дроны, и призвал к установлению правил, регулирующих такое использование.
9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.
В общем, если ИИ не будет регулироваться ничем хорошим это не кончится, с другой стороны регулировать можно только те модели о которых известно, но как регулировать модели собранные людьми непублично? Тем более как мы уже знаем собрать собственную модель становится все легче и кто будет регулировать собранный кустарно ИИ не имеющий ограничений?
1) Риски биологического оружия: Сэм Альтман предупредил о возможном незаконном использовании ИИ для создания биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.
2) Потеря рабочих мест: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.
3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и контроля деятельности ИИ, если его возможности превышают определенные пределы.
4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать ИИ-модели перед их внедрением, включая проверки на самовоспроизведение и утечку данных.
5) Независимые проверки: он рекомендовал проведение независимых проверок, чтобы убедиться, что ИИ-модели соответствуют установленным стандартам безопасности.
6) ИИ как инструмент: Альтман подчеркнул, что ИИ, в особенности передовые модели, такие как GPT-4, следует рассматривать как инструменты, а не разумных существ.
7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал, что в научном сообществе продолжаются дискуссии о возможном сознании ИИ.
8) Военное применение: Альтман признал потенциал использования ИИ в военных целях, таких как автономные дроны, и призвал к установлению правил, регулирующих такое использование.
9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.
В общем, если ИИ не будет регулироваться ничем хорошим это не кончится, с другой стороны регулировать можно только те модели о которых известно, но как регулировать модели собранные людьми непублично? Тем более как мы уже знаем собрать собственную модель становится все легче и кто будет регулировать собранный кустарно ИИ не имеющий ограничений?