ストレスのないメンタルヘルスケアにアクセスできることは困難です。
エリザ、の開発者であるZachtronicsの最初の視覚小説エクサパンクそして素晴らしいものが必要です、デジタル療法とAIがマージして、大規模なヘルスケアを解決する現実を探ります。これは、スタジオの他のタイトルからの逸脱であり、プログラマー向けのパズルゲームのように感じられました。代わりに、Zachtronicsの新しいタイトルは、意思決定に基づいて変化するストーリーに従事するキャラクターとしてのプレイヤーがロールプレイする完全に音声作用型の会話ベースのストーリーゲームです。
ゲーム内の名目上のテクノロジーは、患者に耳を傾けるセラピーAIであり、機械学習を使用して会話言語を使用して推奨事項で返信します。 eコマースサイトで見るかもしれない高度なチャットボットのように考えてください。
それはばかげた考えではありません。一部の現実世界の企業は、すでに近代的なアプローチを取っています患者が自分のペースでセラピストにテキストメッセージを送ることを許可する。これが私がそれをした方法ですが、私は常にプロセスが非人格的であることがわかりました。議論の非同期性は、常に私のセラピストから切り離されていると感じさせました。リアルタイムで誰かと話すことができないことは、会話から必要な多くの必要な共感を吸いました。治療にデジタルレイヤーを追加することは、助けよりも障害のようなものであるかどうか疑問に思いました。
しかし、エリザとのセッションは特別です。なぜなら、マシンがロボットの声で推奨事項を吐き出す代わりに、エリザは患者に対するAIの反応を読む「プロキシ」を使用しているからです。これは、セッションに個人的なタッチを追加することを目的としています。それは興味深いアイデアです。高度なテクノロジーは、人間に依然として効果的であるために依然として依存している個人的なつながりを置き換えることを目的としています。 1つのマシンは、CPUと同じくらい多くのセラピストを扱うことができ、言葉自体はスクリプトを読むことができる人なら誰でも配信できます。
私は、最近3年間の仕事から戻ってきた元エリザエンジニアであるエブリンをコントロールしています。 AIのデザインの背後にある人の1人である後、彼女はプログラマーとしてではなく、ツールのプロキシの1つとしてソフトウェアに戻ります。彼女が地上レベルで彼女の創造に戻る理由を理解することは、物語全体を通してゆっくりと明らかにされています。
他の視覚小説と同様に、私は主にメインゲームプレイ要素としてさまざまなキャラクターと話します。会話での私の回答は、私がロールプレイのエブリンをどのようにプレイするかを判断するのに役立ちます。そして、私が尋ねる質問は、他のキャラクターについて学ぶのに役立ちます。これは視覚的な小説ジャンルの標準ですが、エリザ興味深い並置を紹介します。
プロキシとして、私はいくつかの1対1のカウンセリングセッションに参加します。これらの任命は、私が言うことをコントロールできないゲームで数少ない回数の1つです。エリザとプロキシとの関係は、そのように設計されています。
私のセッションが私の小さなオフィスで始まると、スタートアップのスクリーンがディスプレイを洗い流しますEvelynは着用します。 Google Glassのように考えてください。しかし、テキストメッセージや運転指示の代わりに、各患者に関する豊富な情報が見られます。私の左のディスプレイは、エリザが私の患者が言うことすべてをどのように解釈しているかを示しています。右側には、複雑なチャートは、患者の音声パターンの変動、心拍数、汗をかいている量などを示しています。
Elizaソフトウェアは、患者の話を聞くときにこのデータをすべて考慮しますが、この情報を自分で見ることは重要ではありません。情報に基づいて決定を下すことは許可されていません。私の唯一の仕事は、私に与えられたスクリプトを読み、それを人間で温かく聞こえるようにすることです。
マヤという名前の患者がアート業界に侵入できないことについて話しているとき、エリザは不明瞭から抜け出そうと必死になっているのではなく、うまくいけば回答する応答を作成するために使用されたデータポイントとして、エリザが彼女の物語を聞いて解釈します。より多くのデータポイント。そのすべての進歩について、エリザは主に患者の話を少し聞いてから、主要な質問をするために、彼らがもっと話すようにする前に、患者の話を少し聞いているようです。彼らの問題についてあまり洞察が提供されていることに気づきません。
マヤが「業界党で誰も彼女を望んでいない」という自己敗北の暴言で出発すると、彼女は前夜に出席しました。
すべてのカウンセリングセッションで演技する執筆と声は素晴らしく、各患者は完全に実現された人間のように感じています。彼らの不安、欲求不満、痛みは、それぞれの会話で起こります。彼らは、ほとんどの人が初めて感じる方法を説明するときにそうするように、彼らは再び話す前に何かを検討するために何かを検討し、脇道になり、自分自身を捕まえて主要なポイントに戻ります。
そして、患者がより人間的に見えるほど、各カウンセリングセッションがイライラするようになります。私は代理人なので、人間のように反応したり、何が起こっているのかについての考えを提供することはできません。スクリプトのみを読むことができます。私がどのようにしたいかを反応させることができないことは、ゲームのストーリーにとって最終的に重要になるプレーヤーとして私の中に内部闘争を作り出しました。
エリザとのエブリンの旅は、彼女が残しようとした複雑な過去を織り込み、最終的に彼女の将来について下す必要がある大きな決断に到達します。ありがたいことに、エリザ各章を再生する機能で終わります。別のルートをとるこのチャンスは、ゲームの後半で特に重要です。ついにエリザの脚本から逸脱するオプションが与えられたとき、私が言われたことない何時間もやる。そうすることができることは、ゲームの大きなターニングポイントであり、患者にエリザではなくエブリンとして応答すると、カウンセリングセッションがどのように異なってプレイするかを見るのは魅力的です。
私はこのゲームに来て、それがチューリングテストの巧妙な見解であると想像しました。これは、マシンが人間の知性に合格できるかどうかを確認するために設計されたシナリオです。代わりに、メンタルヘルスの問題を大規模に治療しようとする可能性のある結果を調査しました。人間を助ける行為から人類を排除することは、問題を解決するディストピアの方法です。エリザのストーリーは、深く個人的なプロセスを一般化する潜在的な落とし穴を強調しています。