AI画像解析と触覚フィードバックで、静かに見守る次世代ウェアラブル。

スマートフォンのカメラとAIが周囲の状況を解析し、その結果を振動パターンとして体に伝えることで、視覚障害者の「環境認識」をそっと支える装置。白杖や既存のアプリと併用しながら、不安や情報負荷を少しでも軽くすることを目指します。

About

TactoWayとは

TactoWayは、視覚障害者の日常外出を支えるために開発中の次世代ウェアラブルデバイスです。 スマートフォンのカメラとAIが周囲の障害物やランドマークをリアルタイムに解析し、 その情報を腰ベルトや手袋に搭載した振動アクチュエータを通じて、直感的な触覚パターンとしてお伝えします。

白杖や盲導犬を「置き換える」ものではなく、使用者の既存の移動スタイルをそのまま保ちつつ、 そこに情報をそっと補足する——それが TactoWay の設計思想です。

Features

主な特徴

リアルタイム画像解析

スマホのカメラとAIが障害物・段差・交差点・ランドマークなどをリアルタイムに検知します。

直感的な振動フィードバック

腰ベルトや手袋による方向・距離・危険度を表す振動パターンで、静かに情報を伝えます。

音声案内は最小限

環境音や会話を邪魔しないよう、音声案内は補助的にとどめ、触覚を主チャネルとします。

GPT連携による対話型サポート

将来的にはGPTなどの対話型AIと連携し、「この店は何?」「メニューを読んで」といった質問に答えます。

一緒に「見えない世界」の可能性を広げませんか?

TactoWayは現在、研究開発の真っ最中です。 視覚障害をお持ちのご本人、ご家族、支援者の方、 そして技術や福祉に関わるすべての方と一緒に、 実証実験やフィードバックを通じてより良い装置に育てていきたいと考えています。