ANTHROPIC, Google, Microsoft и OpenAI объединяются в группу по безопасности искусственного интеллекта

Фото автора

By Admin2

В знаковом шаге в направлении безопасного развития искусственного интеллекта ведущие технологические гиганты — Anthropic, Google, Microsoft и OpenAI — объединились для создания Frontier Model Forum. Эта инициатива, ведомая отраслевыми компаниями, нацелена на приоритетное обеспечение безопасного и осторожного развития масштабных моделей машинного обучения, известных как «frontier models», обладающих широким спектром способностей, превышающих текущий уровень искусственного интеллекта.

Признавая наличие внутренних рисков безопасности в связи с развитием ИИ, Форум предпринимает активные меры для обеспечения ответственного использования технологии ИИ. В то время как правительственные органы активно работают над регулированием, основной упор лежит на самих компаниях, которые должны предпринять меры предосторожности. Frontier Model Forum, с его консультативным комитетом, хартией и финансированием, стремится развивать исследования по безопасности ИИ, устанавливать лучшие практики, активно сотрудничать с законодателями, академическими учреждениями, обществом и компаниями, а также способствовать разработке ИИ, способного решать важнейшие проблемы общества.

В ближайший год участники Форума сосредоточатся на трех основных задачах. Во-первых, они будут сотрудничать в улучшении исследований по безопасности ИИ, заложив основы для комплексных стандартов безопасности. Во-вторых, они будут стремиться определить наиболее эффективные практики для внедрения в отрасли, способствуя созданию культуры ответственного развития ИИ. Наконец, Форум стремится установить крепкие отношения с заинтересованными сторонами и законодателями, чтобы обеспечить, чтобы технология ИИ приносила пользу обществу в целом.

Чтобы стать участником Форума, компании должны продемонстрировать свою экспертизу в создании frontier models и реальное стремление придерживаться принципов безопасности. Форум признает настоятельную необходимость своей миссии и верит, что скорость действий является ключевым элементом для продвижения безопасности ИИ. По словам Анны Маканджу, вице-президента OpenAI по глобальным делам, согласование между компаниями, особенно теми, которые работают над мощными моделями, является важным для установления общих основ и содействия гибким практикам безопасности.

Эта инициатива следует за недавним соглашением об обеспечении безопасности  между Белым домом и крупными компаниями, включая участников Frontier Model Forum. Среди согласованных мер безопасности — тесты на плохое поведение ИИ экспертами-наблюдателями и применение водяных знаков на контент, созданный искусственным интеллектом.

С созданием Frontier Model Forum технологическая индустрия делает существенный шаг к обеспечению будущего технологии искусственного интеллекта. Содействуя сотрудничеству, исследованиям и ответственным практикам разработки, это коллективное усилие может стать примером использования мощного ИИ для общественной пользы и решения важнейших проблем, с минимизацией потенциальных рисков.

Оставьте комментарий