マイケル・マクワートル ビデオゲーム、テクノロジー、映画、テレビ、エンターテイメントをカバーする17年以上の経験を持つジャーナリストです。
コンシューマーエレクトロニクスショーで(CES)月曜日に、Nvidiaは、その生成的なAI駆動のNPCの最新の進歩を披露し、ゲームの作成方法を変える可能性のあるプレーヤーとコンピューター生成キャラクターの間の自動化された会話を紹介しました。 NvidiaのAvatar Cloud Engine(ACE)Techは、音声からテキストの認識とテキストからスピーチの応答を、生成的AIフェイシャルアニメーションと自動化されたキャラクターのペルソナと組み合わせて、コンピューター作成されたキャラクターの相互作用を吐き出します。
CES 2024でのNvidiaの特別アドレスACEのシニアプロダクトマネージャーであるSeth Schneiderは、タンデムで作業するテクノロジーのデモを紹介しました。 Schneiderによると、デモはプレーヤーのスピーチを解釈し、テキストに変換します。そのテキストは、クラウドベースの大規模な言語モデルに供給され、NPCからの応答を生成します。応答テキストは、Omniverse Audio2faceに供給されます。これは、生成された音声オーディオをリップで同期し、ゲーム内でレンダリングされます。
デモはアップデートです2023年のComputexに表示される技術の以前のバージョン、未来的なラーメンショップのオーナー、ジンと話すキャラクターが特徴でした。 Nvidiaの新しいデモは、Jinと別のNPC、Novaに各プレイスルーでユニークなAIに生成された会話を持つことでそれを拡張します。
CES 2024デモはまた、Convaiと呼ばれる別の会社の新しいテクノロジーを披露します。これにより、AIを搭載したNPCは、単なるコンバース以上のことを行うことができます。これらのNPCは、環境内のオブジェクトと相互作用することもできます。新しいデモでは、ジンがシュナイダーの「良いものを引き出す」ように促されると、酒のボトルを引き出すことが示されています。 Convaiが共有する資産によると、環境を認識しているAI NPCは、シーン内のボウル、ボトル、ライト、その他の小道具など、多くのオブジェクトと対話することができます。
Nvidia氏によると、多くのゲーム開発者は、Audio2face Facial Animation Generative AIおよびRIVA自動音声認識を含むACEプロダクションサービスをすでに利用していると述べています。シュナイダーは「トップデジタルアバター開発者」と名付けましたGenshin Impact出版社Mihoyo、Netease Games、Tencent、およびUbisoftは、製品のAI駆動型NPCを製造している企業の一部です。
どのゲームがこれらのタイプのAIに生成されたNPCを組み込むかはまだ明確ではありませんが、NvidiaとConvaiは、Techが「シームレスに」非現実的なエンジンやユニティなどのゲームエンジンを統合することを誇っています。また、現実世界の出力が何らかの良いものであるか、ジンとノヴァの会話のように、不気味に不気味になるかどうかは不明です。どちらのキャラクターも、それぞれの配信でロボットと奇妙に聞こえますが、ほぼ説得力のある会話の巧妙な出力にもかかわらず。
Nvidiaの新しいデモから出てくることがほぼ保証されていることがほぼ保証されています。将来のゲームで経験する悪いNPCインタラクションが実際の人間ではなくAIによって作成される疑いの増加。