Core Technology

TactoWay で、視覚障害者の 「移動のしかた」が変わる。

スマートフォンのカメラとAIを核に、触覚フィードバックで周囲の情報を静かに届ける—— 日常の外出に寄り添う AI×触覚 ウェアラブル装置です。

どこがスマートなのか?

リアルタイム画像解析

スマートフォンのカメラで捉えた映像をAIがリアルタイムに処理。 障害物、段差、交差点、信号機、点字ブロック、ランドマークなどを瞬時に認識し、 状況に応じた情報を生成します。

  • 障害物・段差・交差点の自動検出
  • 信号機・点字ブロックの認識
  • ランドマーク(店舗・施設)の検知

触覚インターフェース

「ブッ」という単純な振動ではなく、方向・距離・危険度を表現する 「振動のパターン」を生成。腰ベルトや手袋に搭載した複数の振動子が、 聴覚を塞ぐことなく、直感的にナビゲーションを伝えます。

  • 方向・距離・危険度の三軸表現
  • 複数の振動アクチュエータによる空間的伝達
  • 聴覚を妨げないインターフェース

「触覚+音声」のバランス

従来の視覚障害者向けナビゲーションは、音声案内に大きく依存してきました。 しかし、音声は環境騒音と競合しやすく、周囲の音(車の接近、人の会話)を遮ることで かえって危険を生む場面もあります。

TactoWayは触覚を主チャネル、音声を補助チャネルとすることで、 環境音や会話を邪魔しない情報伝達を目指しています。 必要な場面でだけ短い音声通知を入れ、普段は振動だけで案内するスタイルです。

従来のアプローチ

音声 90% + 触覚 10%

TactoWay のアプローチ

触覚 80% + 音声 20%

モビリティトレーニング構想

将来的には、歩幅・歩行リズム・白杖の振り幅といったデータを組み合わせ、 使用者に簡単なフィードバックや練習モードを提供することも検討しています。 安全な室内から段階的に触覚パターンを学び、屋外での使用に自信を持って臨めるようにする—— それがこの構想の目的です。

段階的な学習プログラム(構想中):

1 基本振動パターンの認識
2 方向指示の理解と応答
3 危険度レベルの判別
4 実践的な歩行シミュレーション

GPT-4o Voice Integration

「目の前にある店は何?」「メニューを読んで」——
ボタン一つで対話型AIが起動し、視覚情報を言葉で補足します。

将来的にはGPT等の対話型AIと連携し、路線案内や店舗情報の問い合わせにも対応予定です。(開発中)

開発パートナーになる

研究開発段階からの、共創のお誘い

TactoWayは現在も研究開発の真っ最中です。 当事者の方、ご家族、福祉団体、リハビリ施設、企業、大学・研究機関—— さまざまな立場から実証実験やフィードバックに参加してくださる方を募集しています。