リモート開発メインのソフトウェア開発企業のエンジニアブログです

Google AI Essentials を受けてみた

アイキャッチ画像は修了証明書。

去年末、日本リスキリングコンソーシアムが会員向けに Google AI Essentials を無料で受講できるアカウントを配布していました。先着順 (※) だったのでとりあえず申し込みだけ済ませて放置していたのですが、6 月で受講権が失効するという催促メールが来たためあわてて受講し、先日無事修了する事ができました。今回はその感想などをまとめたいと思います。

(※調べてみると、このキャンペーンは定期的に行われているようです)

Google AI Essentials とは

Coursera で受講できる、初心者向けの 生成 AI 講座です。AI の簡単な歴史、機械学習と生成 AI の基礎、業務での活用方法や注意点などを幅広く扱います。プログラミングや数学の事前知識は不要で、ソフトウェア開発者に限らず 「生成 AI を活用したいすべての職種」 に向けた内容になっています。

構成は大きく5つのモジュールで、各モジュールは動画・テキスト講義 → 任意のハンズオン → 小テストという流れになっていて、小テストは何度でも受け直せる(1日の回数制限はあった気がします)ので合格点を気にせず消化できます。

今回は隙間時間に細切れで受講していたので正確に覚えていないですが、総学習時間は10時間もしなかったと記憶しています。動画は英語ですが、日本語訳もできるトランスクリプトが用意されているので英語が苦手でも問題ありません。

以下、各モジュールをざっくり紹介します。

1. Introduction to AI

AI の発展史と、いま最もホットな生成 AI の概要・動作原理を学びます。機械学習の基礎に触れたあと、生成 AI の能力と限界、業務活用例を整理します。

2. Maximize Productivity With AI Tools

具体的な AI ツールを紹介しつつ、業務タスクを効率化するワークフローと Human-in-the-Loop の重要性を解説します。途中 Gemini を使った Docs / Slides / Sheets / Meet / Gmail での活用デモもあります。

3. Discover the Art of Prompt Engineering

LLM の仕組みを踏まえ、期待するアウトプットを引き出すための プロンプトエンジニアリング の初歩を学びます。トークン生成のメカニズムや出力評価のポイントもここで登場。

4. Use AI Responsibly

バイアス・セキュリティ・プライバシーなど、無責任な AI 利用が招くリスクを概観し、「責任ある AI 利用」の原則を学習します。

5. Stay Ahead of the AI Curve

急速に変化する AI 業界の最新動向を追う方法を紹介。継続的なキャッチアップが生産性・創造性・市場価値の向上につながる――というメッセージで締めくくられます。

Moba Pro

受けてみた感想

Google AI Essentials は 2024 年春に公開された講座なので新鮮さにやや欠ける部分がある点と、内容があくまで入門向けなので普段から生成 AI を業務利用しているソフトウェアエンジニアには物足りない部分もあると思います。それでも LLM の動作原理や基本用語を体系的に再確認できる 点が大変よく、特にモジュール 3 のプロンプトエンジニアリングは日々の生成 AI 活用にも直結する知見が多く、個人的には一番面白かったです。

例えば、以下はすでに様々なところで論じられている内容ではありますが、ごく基本的な事として:

  • 明確さと具体性が最優先
    やりたいタスク・期待するフォーマット・制約条件をストレートに書く。抽象的な「いい感じに要約して」ではなく「200 字以内でポイントを 3 つに箇条書きで」まで落とし込むと途端にブレが減る。
  • 十分なコンテキストを添える
    モデルは推論ベースなので、前提情報が欠けると平気で想像を補完する。入力データの背景や対象読者、ドメイン固有の用語を最初に渡すだけで品質が一段上がる。
  • 反復と評価のループ
    1 回で当てにいくより、出力をチェック → プロンプトを微調整 → 再実行のサイクルを回すほうが結局速い。LLM の利用は “書いて終わり” ではなく継続的なチューニングが前提。
  • Few-shot 指示の効果
    良い例・悪い例を数パターン示すだけで、生成文のトーンや構造が揃いやすい。コード生成やメール返信テンプレートなど、フォーマットが決まっている場面で特に効く。

ちなみに昔は Chain-of-Thought のように「思考を逐次書き出させる」プロンプトが定番テクニック(講座でも言及されtます)でしたが、最新の LLM は内部で似た推論を自己回帰的に回してくれるので、はっきり指示しなくてもそれなりに筋の通った答えが返ってきます(とはいえ複雑な問題では依然 CoT 指示が効くシーンもあるので使い分けが大事)。

面白かったのは、これらの原則はテキスト系 LLM だけでなく画像生成モデルでもほぼ同じという点。要は「モデルが判断に迷わないように、意図と文脈を余さず渡す」、これに尽きると再確認できました。

最後に

日本国内では生成 AI 活用率がまだ高くなく、総務省の昨年の調査でも 個人利用率 9.1 % にとどまっています (※)。基礎から体系的に学べる講座が広まり、より多くの人が生成 AI を使いこなせるようになることを願っています。

総務省発表のアンケート結果より

← 前の投稿

次の投稿 →

開発ノートPCを増設して、再環境構築せずにディスクイメージ本体を引っ越しできた話

コメントを残す