Компания 10 января изменила правила применения своих продуктов, ранее не разрешавшие использовать ИИ для деятельности, «сопряженной с высоким риском физического вреда», в том числе для разработки оружия и «военных действий, передает «Газета.Ru» со ссылкой на The Intercept.
Эти положения должны были исключать использование ChatGPT Пентагоном и другими силовыми ведомствами. В новой версии сохраняется запрет на применение нейросетей OpenAI для причинения вреда себе и другим, в том числе для создания оружия, но положения о недопустимости использования в армии и военном деле больше нет.
В компании заявили, что изменение связано с упрощением правил и принципов, требование «не причинять вред себе и другим» трактуется максимально широко, оно уточняется запретом на разработку и использование оружия с помощью этого ИИ.
Однако эксперты, опрошенные изданием, предположили, что OpenAI начинает разворачиваться в сторону Пентагону и разведсообществу США.