伊原さんによる講演「ChatGPT時代のウェブアクセシビリティ」を視聴した。家族サービスにつき生では観られなかったのでアーカイブにて。
伊原さんらしいというかさすが伊原さんというか、動かした手の量がすごかったですね。講演でも触れられていたように、アクセシビリティとAIの組み合わせといってもその切り口は多岐にわたる。検証、実装、デザインについて「現在AIと一緒にやるならこんなかんじ」をざっくり掴むことができ、自分が持っていた感覚の答え合わせができた。
axe DevToolsのIGT(Intelligent Guided Tests)は触ったことがなかったので、画面共有して見せてもらえたのはよかった。テストに付き添ってくれるという体験自体はMicrosoftのAccessibility Insights for Webでもやってくれるけど、さらに便利にしつつ、AI(といっても機械学習ベースっぽいですが)によるアシストも働くということだった。
生成AIがコーディングを含むさまざまな方面に有用であることは疑いようはないけれど、アクセシビリティの「制作」に関してはまだ使い所が難しいと感じる。誤検知や誤情報の捏造がある以上、初学者にはおすすめしたくない。すでに「わかってる」人たちにとっての制作の相棒にはなるだろうけど、それだとやっぱりスケールしない。
ユーザー側の支援技術がAIを取り込んでいくことがやっぱり直接のインパクトが大きくできる手段だと思う。しかしウェブサービスはブラウザによるアクセスに最適化されすぎてしまった。JavaScriptが使えなければ動かない。支援技術はブラウザや視覚のエミュレーションを経由する必要があるので低コストに情報にたどり着くことが難しい。
そこでMCPってことになるらしい。データやツールの発見性。いやそれって、RESTfulなハイパーメディアこそが上手くやってた分野なのになあ。
この記事は2025年4月7日にそめによって書かれました。