

公開日:2025年8月15日 午前6時07分(オーストラリア東部標準時)
著者:Jake Goldenfein, Fan Yang

人工知能(AI)は、低迷する生産性向上を促進する手段として注目されています。
AIによる生産性向上の推進には、AI製品を開発するテクノロジー企業やAI関連サービスを提供するコンサルティング企業など、強力な多国籍企業が支援しています。また、政府も関心を示しています。
来週、連邦政府は経済改革に関する円卓会議を開催し、AIは議題の重要な一部となります。
しかし、AIが実際に生産性を向上させるという証拠は、まだ十分には明らかではありません。
実際の組織におけるAIの運用状況や調達方法についてより深く理解するため、ビクトリア州公務員の幹部職員にインタビューを実施しています。調査は現在も継続中ですが、最初の12名の参加者から得られた結果から、共通の懸念事項がいくつか浮かび上がってきました。
インタビュー対象者は、AIサービスを購入、利用、管理する官僚です。彼らは、AIによる生産性向上には、困難で複雑、そして費用のかかる組織的な基盤整備が必要だと語りました。その効果は測定が難しく、AIの活用は労働者にとって新たなリスクや問題を引き起こす可能性があると指摘しています。
AI導入には時間と費用がかかる
公共サービス従事者によると、既存のワークフローにAIツールを導入するには時間と費用がかかる可能性があるとのことです。製品の調査やスタッフの再教育に必要な時間とリソースを確保することは、大きな課題です。
すべての組織がAIに同じアプローチをしているわけではありません。十分な資金を持つ組織は、様々なAIの活用方法を「概念実証: “proofs of concept”」のためにテストする余裕があることがわかりました。一方、リソースが少ない小規模な組織は、AIツールの導入と維持にかかるコストに苦労しています。
ある参加者はこう述べています。
まるで低予算でフェラーリを運転しているようなものです[…] こうしたソリューションは、小規模な組織の目的にはもったいない場合もありますが、運用コストが非常に高く、サポートも困難です。
「データこそが至難の業」
AIシステムを有用なものにするには、多くの準備作業が必要になる場合もあります。
CopilotやChatGPTなどの市販のAIツールは、比較的単純なタスクをより簡単かつ迅速に行うことができます。大量の文書や画像から情報を抽出したり、会議の文字起こしや要約を作成したりすることもその一例です。 (ただし、調査結果によると、特に社内や機密性の高い状況では、従業員がAIによる文字起こしに不安を感じる可能性があることが示唆されています。)
しかし、コールセンターのチャットボットや社内情報検索ツールといった、より複雑なユースケースでは、業務の詳細やポリシーを記述した社内データに対してAIモデルを実行する必要があります。良好な結果を得るには、高品質で構造化されたデータが必要であり、組織はミスに対して責任を負う可能性があります。
しかしながら、商用AI製品を約束どおりに機能させるために、データの品質に十分な投資を行っている組織はほとんどありません。
この基礎的な作業がなければ、AIツールは宣伝どおりのパフォーマンスを発揮しません。ある人物が語ったように、「データこそが大変な作業です」。
プライバシーとサイバーセキュリティのリスクは現実のものとなります。
AIを使用すると、当該組織と巨大な多国籍テクノロジー企業が管理するサーバーとの間で複雑なデータフローが発生します。大手AIプロバイダーは、これらのデータフローが、例えば組織および個人データをオーストラリア国内に保管し、システムの学習に使用しないといった法律に準拠していると約束しています。
しかしながら、ユーザーはこれらの約束の信頼性について慎重な姿勢を示していることがわかりました。当該組織が知らないうちに製品が新しいAI機能を導入してしまう可能性についても、大きな懸念がありました。これらのAI機能を使用すると、必要なリスク評価やコンプライアンスチェックが行われないまま、新たなデータフローが生まれる可能性があります。
組織が機密情報や、漏洩した場合に安全上のリスクが生じる可能性のあるデータを扱っている場合、ベンダーと製品が既存の規則に準拠していることを確認するために監視する必要があります。また、ChatGPTなどの公開されているAIツールを従業員が使用する場合にもリスクが生じます。これらのツールはユーザーの機密性を保証しません。
AIの実際の活用方法
AIは、会議の議事録作成や顧客対応といった「低スキル」なタスク、あるいは経験の浅い従業員が行う作業において、生産性を向上させることがわかりました。これらのタスクにおいて、AIは語学力に乏しい従業員や新しいタスクを学習中の従業員の生産性向上に役立ちます。
しかし、品質と説明責任を維持するには、通常、AIの出力に対する人間による監視が必要です。スキルと経験の低い従業員は、AIツールの恩恵を最も受けますが、AIの出力を監視し、二重チェックする能力が最も低いのです。
利害関係とリスクが高い分野では、生産性の向上をいくら達成しても、必要な人間による監視の量がそれを阻害する可能性があります。
さらに、仕事が主にAIシステムの監視になる場合、従業員は疎外感を感じ、仕事への満足度が低下する可能性があることもわかりました。
AIはしばしば疑わしい目的にも使用されていることが分かりました。従業員は、組織のガイドラインにおけるコンプライアンスのニュアンスを理解せずに、AIを使って手抜きをしてしまう可能性があります。
データセキュリティとプライバシーに関する懸念があるだけでなく、AIを用いて情報を確認・抽出することで、既存の人間の偏見を増幅させるなど、他の倫理的リスクが生じる可能性があります。
私たちの調査では、これらのリスクが、職場の監視や管理を強化するために、組織がAIをより多く活用するきっかけとなっていることがわかりました。最近のビクトリア州政府の調査では、これらの方法が従業員に悪影響を与える可能性があることが認識されています。
生産性の測定は難しい
組織にとって、AIによる生産性の変化を測定する簡単な方法はありません。多くの組織は、AIの活用に長けた少数の熟練労働者からのフィードバックや、ベンダーからの主張に頼っていることが分かりました。
あるインタビュー対象者は次のように述べています。
ここでは「調査」という言葉をかなり曖昧に使いますが、MicrosoftはCopilotの活用によって組織が達成できる生産性向上について独自の調査を行っており、その高い数値には少し驚きました。
組織は、人員削減やスループットの向上のためにAIを活用したいと考えるかもしれません。
しかし、これらの指標は、顧客に提供される製品やサービスの品質の変化を考慮していません。また、残った従業員の職場体験がどのように変化するか、あるいは主に多国籍コンサルティング会社やテクノロジー企業に支払われる多大なコストについても把握していません。
著者らは、知見を共有してくださった研究参加者、インタビュー記録の初期分析に専門知識を提供してくださった研究者、そして参加者の募集を支援してくださったビクトリア州情報コミッショナー事務局に感謝の意を表します。

この記事は、クリエイティブコモンズライセンス(CCL)の下で The Conversation と各著作者からの承認に基づき再発行されています。日本語訳は archive4ones(Koichi Ikenoue) の翻訳責任で行われており、The Conversationによる正式な翻訳ではありません。オリジナルの記事を読めます。original article.