『ジェネレーティブAIの活用術―リスクを抑えながら恩恵を享受するガイド』メモ(2・完)丨ハーバード・ビジネスレビュー最新号23年11−12月号

毎朝4時台に起床して、なんとか勉強時間を捻出しています。さて、ハーバード・ビジネス・レビュー最新号(英語)に掲載された論文をノロノロ読み、後日、講演・執筆で利用できそうな気になる論文を備忘的にまとめています。

最新号の特集の1つです。アジャイルガバナンスの議論を補強する上で最終段落は使えそうです。

(*)英語力が乏しいためノロノロと順次、テクノロジーの力を借りつつ整理しておりますが、毎号素晴らしい学びがある雑誌で、私もファンの1人です。よろしければ、Blogをきっかけに、HBR定期購読(定期購読サイト)をご検討ください。

Andrew McAfee, Daniel Rock, and Erik Brynjolfsson (2023). How to Capitalize on Generative AI: A guide to realizing its benefits while limiting its risks, Harvard Business Review, 101(6), 42-48.

メモ丨生成AIのリスクとリスク低減策

情報の捏造問題への対策

生成AIがビジネスに与える影響は大きいが、情報の捏造という問題を避けるのではなく、その危険から身を守る方法を見つけるべきである。具体的には、①LLMを他のシステムと組み合わせること、②人間がLLMの出力を監視すること、そして③LLMを使わない選択も考慮に入れることが大切である。

例えば、GoogleのBardは、正しい答えが必要なクエリに対してアルゴリズムを書いて答えを提供する。また、カスタマーサービスの改善において、LLMはオンラインチャットを監視し、in-context学習システムが回答を形成する。

プライバシー侵害、知的財産問題、偏見の緩和

生成AIを使用する際は、訓練に使用されるデータのプライバシーポリシーを理解することが重要である。

LLMはプライバシーを守りつつ利用可能で、例えば、メイヨークリニックは内部LLMを展開して、HIPAAのプライバシー要件に準拠しつつ、情報検索を支援している。

また、知的財産権の侵害や偏見に関しても懸念があり、Adobeのような企業は自社の生成AIを使用する顧客に対して法的クレームから保護すると発表している。

生成AIを利用する際は、偏見を含まない訓練データに基づく結果を期待するかどうかを自問し、プロジェクトを再考することが求められる。

実験を続ける準備

生成AIはその強みと弱みが他のシステムと異なるため、アジャイルな方法で繰り返し試行することが望ましい

プロジェクトは短期間で完了する小さなサイクルに分割し、各サイクルで得られた知見を次のサイクルに活かす。この反復的なアプローチは、特に生成AIに適しており、「プロンプトエンジニアリング」と呼ばれる若い分野である。組織がOODAループ(観察、方向付け、意思決定、行動)を迅速に繰り返すことで、学習し生産性の向上や他の利益を実現できる。生成AIはビジネス運営に大きな影響を及ぼすと予想されており、リーダーはこの技術の可能性を探求し始めるべきである。

今日はここまで。引き続きどうぞよろしくお願いします。1歩1歩。

[定期購読のおすすめ]

HBR定期購読(定期購読サイト

[関連記事]

***

ご相談・講演のご依頼などはこちらからご連絡を賜れますと幸いです。


(了)

※記事に関しては個人の見解であり、所属する組織・団体の見解でありません。なお、誤植、ご意見やご質問などがございましたらお知らせいただければ幸甚です(メールフォーム)。

渡部推薦の本丨足りない、は補えばいい