TactoWay で、視覚障害者の
「移動のしかた」が変わる。
スマートフォンのカメラとAIを核に、触覚フィードバックで周囲の情報を静かに届ける——
日常の外出に寄り添う AI×触覚 ウェアラブル装置です。
どこがスマートなのか?
リアルタイム画像解析
スマートフォンのカメラで捉えた映像をAIがリアルタイムに処理。 障害物、段差、交差点、信号機、点字ブロック、ランドマークなどを瞬時に認識し、 状況に応じた情報を生成します。
- ▶ 障害物・段差・交差点の自動検出
- ▶ 信号機・点字ブロックの認識
- ▶ ランドマーク(店舗・施設)の検知
触覚インターフェース
「ブッ」という単純な振動ではなく、方向・距離・危険度を表現する 「振動のパターン」を生成。腰ベルトや手袋に搭載した複数の振動子が、 聴覚を塞ぐことなく、直感的にナビゲーションを伝えます。
- ▶ 方向・距離・危険度の三軸表現
- ▶ 複数の振動アクチュエータによる空間的伝達
- ▶ 聴覚を妨げないインターフェース
「触覚+音声」のバランス
従来の視覚障害者向けナビゲーションは、音声案内に大きく依存してきました。 しかし、音声は環境騒音と競合しやすく、周囲の音(車の接近、人の会話)を遮ることで かえって危険を生む場面もあります。
TactoWayは触覚を主チャネル、音声を補助チャネルとすることで、 環境音や会話を邪魔しない情報伝達を目指しています。 必要な場面でだけ短い音声通知を入れ、普段は振動だけで案内するスタイルです。
従来のアプローチ
音声 90% + 触覚 10%
TactoWay のアプローチ
触覚 80% + 音声 20%
モビリティトレーニング構想
将来的には、歩幅・歩行リズム・白杖の振り幅といったデータを組み合わせ、 使用者に簡単なフィードバックや練習モードを提供することも検討しています。 安全な室内から段階的に触覚パターンを学び、屋外での使用に自信を持って臨めるようにする—— それがこの構想の目的です。
段階的な学習プログラム(構想中):
GPT-4o Voice Integration
「目の前にある店は何?」「メニューを読んで」——
ボタン一つで対話型AIが起動し、視覚情報を言葉で補足します。
将来的にはGPT等の対話型AIと連携し、路線案内や店舗情報の問い合わせにも対応予定です。(開発中)
開発パートナーになる研究開発段階からの、共創のお誘い
TactoWayは現在も研究開発の真っ最中です。 当事者の方、ご家族、福祉団体、リハビリ施設、企業、大学・研究機関—— さまざまな立場から実証実験やフィードバックに参加してくださる方を募集しています。