NNA ASIA

英米、AI安全性評価で協力

試験を共同開発=人材交流も検討

英国と米国は1日、人工知能(AI)の安全性評価に向けた覚書に調印した。最新のAIモデルの安全性試験を共同で開発するほか、知識の共有や人材交流も検討する。安全性試験はAIモデルが国家の安全保障や社会にもたらすリスクを見極めるためのもので、昨年11月に英国で開かれた「AI安全性サミット」で実施が決まっていた。