✍️前几日引っ越しで遭遇したイライラする出来事を共有します。



最初はブロードバンドの移設を手配しようと思っていたのに、カスタマーサポートに電話したらAIから人間に転送され、また人間から別の人間に転送され、見た目はスムーズに進んでいるように見えましたが、実際は効率が悪く、毎回要求を再度説明しなければならず、48時間経っても誰も訪問に来ませんでした。

怒りに任せて契約を解除し、ネットも解約しました。電話の相手が人間なのかBotなのか確信できず、その彼/彼女もあなたの感情や要求を効果的に理解できず、ただ決まりきった台詞を繰り返すだけで、具体的な問題のフィードバックもなく、いつも締め切りを提示できないのです。

これは多くのAI製品に共通する欠陥であり、受動的に指示を待ち、冷たい答えを返すだけで、自ら進化しない上に、個別に調整されることもありません。そのため、多くの場面で私たちはAIを拒絶し、まるで工場時代の「純手作り」に懐かしさを感じるような感覚に近いのです。

問題は次の通りです:AIは本当に利用者の個人情報や過去の対話、現在の状況に基づいてより人間らしい応答を返すことができるのでしょうか?

@EPHYRA_AI が答えるのは「Yes」です。以前このプロジェクトについて紹介しましたが、彼らはAIに生命を持たせ、仮想世界で本当の主観的体験を持たせることを目指しています。

簡単な例を一つ:あなたがAIと会話すると、そのAIはあなたが言った一言一言を記憶し、あなたの目的や感情を分析します。そして、異なる時刻や異なる文脈で異なる応答を返し、あなたにAIが血肉の通った、膝を突き合わせて語り合える人間のように感じさせるのです。

公式ツイッターを調べたところ、EPHYRAは最近大きな進展を遂げました。ECA(Embodied Cognitive Agent:具現化認知エージェント)認知アーキテクチャが、概念段階から体験可能で検証可能な段階に入り、システムは感知、感情と認知、行動と表現、自我モデルの四つのコアレベルで重要な突破口を迎えています。

感知レベル:音声認識、音声合成、視覚提示能力はすべて稼働中で、顔認識も導入予定です。これにより、AIキャラクターが多モーダルなインタラクションを行えるようになります。

感情と認知レベル:利用者の感情の揺らぎを継続的に記録・感知し、感情的な嗜好を形成し、現在の状態に基づいて判断します。

行動と表現レベル:キャラクターの応答はより自然で一貫性があり、状況に応じた行動特性も備えています。

自我モデルレベル:人格の動的変化、意図の予測、多モーダルなインタラクションと自己進化の仕組みを計画中で、まさにAIに生命を与える試みです。

要するに、多種多様なAIを使い倒したあなたなら、きっとEPHYRAに大きな期待を抱くでしょう。今回こそ本当に違いがあるかもしれません。
原文表示
post-image
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン