AI博覧会の写真

AI博覧会2026に行ってきたレポート(感想文)

AI自動化意思決定人材育成データ
要約を表すロボットのアイコンAI 要約
-この記事は mlx-community/gemma-3-4b-it-4bit によって要約されました

AI博覧会2026では、事務作業の自動化や経営支援といった形でAIの活用が進んでいる。社内AI人材育成の需要も高まっており、AIを使いこなせる人材の育成が重要な課題となっている。特に、AI学習データの制作・提供が、AIの現場実装を左右する中核的な役割を担っていることが示された。

1. トレンド:企業が注目している分野

先日、AI博覧会2026に足を運んだ。出展を俯瞰すると、全体の空気はかなりはっきりしていた。 多かったのは「創造的AI」よりも、形式的な事務作業をAIエージェントで自動化し、業務の速度と再現性を上げるという方向性だ。提供形態はほぼSaaSで、狙っているのは・現場の手間と・管理職の不安の両方に見えた。

出展内容は大きく3パターンに分類できる。

  • (1) 業務効率化/自動化
  • (2) 戦略支援(経営・意思決定の補助)
  • (3) 社内AI人材育成(定着・運用の仕組み化)

(1) 業務効率化/自動化

具体例として目立ったのは、いわゆる「社内AIアシスタント」系だ。 ナレッジ共有、FAQ対応、議事録生成、社内ファイル検索などを入口にして、AIが壁打ち役として意思決定の速度を上げる構図になっている。

さらに一段踏み込んだ提案としては、過去の議事録や社内の意思決定ログから、

  • 組織の判断基準
  • 部署ごとの前提
  • 人物ごとの癖(合意形成の速度、懸念点の傾向) などを学習させ、コミュニケーション摩擦を減らして会議回数や手戻りを減らす、というものもあった。 要するに「情報検索の効率化」から「組織運用の最適化」へ寄せてきている。

また、最近話題になった「音声×チャットのマルチモーダルAIエージェント」型のSaaS(例:対話で業務が進む形)や、発注・稟議などのDXをAIで前に進めるものも含め、作業と手続きの領域を削りに来ている印象が強い。

(2) 戦略支援(経営・意思決定の補助)

業務効率化ツールが社内に入ると、次に出てくる問いは「結局いくら得したの?」だ。 そのため、AIツールの利用状況を計測し、導入効果(費用対効果)を可視化する出展もあった。

さらに、経営者層を強く意識した出展として、

  • 自社資料・社内データを根拠にした経営判断の促進
  • コンサルの代替としてのシミュレーション、反証、論点整理
  • 客観的推論を売りにした意思決定支援 といったアプリケーションが目立つ。ここは特に「経営者に刺さる言葉」で語られていた。

※ただし「最新LLMを超える精度」などの主張は、評価条件が見えない限りマーケ文句になりやすい(ここは後で評価で触れる)。

(3) 社内AI人材育成

AIが社内に入っても、結局それを使うのは人間だ。 そこで、AIを使いこなせる人材を育て、生産性を上げるサービスが第三の柱として出ていた。

形態は2つ:

  • SaaS型:学びやすい教材・演習・テンプレ・社内ナレッジ化を提供し、主体的に学ばせる
  • コンサル/研修型:ワークショップや社内セミナーで、均一なスキルを短期間で浸透させる

ここは「AI導入の最後の壁は運用である」という現場の現実が、そのまま商品化されている領域に見えた。


2. 「skills」が流行った意味(属人化からの脱却)

この流れを踏まえると、昨年末に話題になった Claude Code の skills 機能が注目された理由も見えてくる。 キーワードは 「属人化からの脱却」 だ。

属人化をここで定義する。 属人化:特定の業務が特定の人にしか遂行できない状態。 そして、属人化には濃淡がある。手順が多少人によってブレる程度の弱い属人性もあれば、判断基準そのものが個人の経験に依存している強い属人性もある。

企業活動のほぼすべては「入力→出力」のプロセスだが、人間が担う以上、同じ入力でも出力は一致しない。 統計・ルール化・業務手順書などで差を小さくする努力は昔からあったが、結局のところ、成果の差(≒属人的な差分)は消えにくい。特にマネジメントや意思決定のような上流ほど、差は大きくなる。

ここで重要なのは、属人化解消の歴史は長いのに、目的が完全達成されていない点だ。 単純作業だけを標準化しても、最終的なボトルネックが判断・合意形成・意思決定に残る。言い換えると、資本主義の競争環境では、人間が最大のボトルネックになりうる。

とはいえ、現状のAIが全部解決できるわけではない。最大の理由は、出力の正当性を保証できる範囲がまだ狭いことだ。 正当性の保証には、評価可能なデータ、検証可能な基準、運用ログが必要になるが、その整備が追いついていない領域が多い。

だから今は、正当性を比較的担保しやすい部分(形式的業務、既知の社内情報検索、定型判断の支援など)からAIが入り、 それでも人間の使い方で成果差が出るので、その差を縮めるために

  • skills のような「再現可能な作業手順のテンプレ化」
  • AI人材育成の仕組み化 が必要になる。

しかし、モデル性能が上がり、PDCAが高速化し、事例データ(運用ログ)が増えるほど、正当性を保証できる領域は拡大していく。 この傾向が続くなら、AIは単なる道具ではなく、産業プロセスや経営プロセスそのものに深く入り込む。

その先にある未来像として、「人が仕事をしない時代が来る」という予測は、一定の論理性がある。 少なくとも、形式的業務に人間を残す理由は急速に薄れる。

一方で、「AIが人間を支配する」という類の話は、現実的には別問題だ。 合理性・効率性を極限まで追うプロセスにおいて、能力の低い存在を支配して使役すること自体が非効率になりうる。 (人間がアリを社会運営の主体として使役しないのと同じで、能力差が大きいほど使う意味は薄くなる。)


3. 印象に残った展示:学習データ領域

最後に、展示として特に面白かったのは、AI学習データの制作・提供を行う企業群だ。 ここまで述べた流れ(正当性保証の範囲が狭い → 運用ログと事例データが鍵)を前提にすると、データ制作は単なる裏方ではない。 むしろ「AIを現場に実装できるか」を左右する中核だ。

AI導入はモデル選定だけでは終わらない。 組織固有の判断を学習・評価できる形に整えるデータ作りができるかどうかで、現実の成果が決まる。 この領域が前に出てきたのは、AI活用が「PoCの面白さ」から「運用の勝負」に移った証拠だと感じた