金融分科会 Meetup 【第8回】開催レポート
金融分科会運営の谷山です。
11月に入ったというのに暑い日が続きますね!
本稿では、大変遅くなりましたが、2023年8月3日に実施した「金融分科会第8回 Meet Up」について、当日の模様をダイジェストでお届けします。
第8回Meet Upでは、金融業界でも活用に向けた期待が熱を上げている「生成AI」をテーマに実施しました!
金融分科会のご紹介 – シンプレクス河越さん
先ずはシンプレクス 河越さんから金融分科会のご紹介。
主な活動として、Meetupや、Slackでの情報交換、Open Meetupや、FISCリファレンスガイドの作成など。今回は第8回、この後も第9回、第10回と続けていきます!
Jagu’e’r金融分科会第8回Meetup、渋谷ストリームの会場では、金融分科会長の渥美さんからのカンパイご発声からスタートです!
Google Cloudさん、素敵なケータリングをご用意いただき、ありがとうございます!
Google CloudのGenerative AIへの取り組みと技術紹介 – Google Cloud 西岡さん
Google Cloud 西岡さんから、Google CloudのGenerative AIへの取り組みと技術紹介をいただきました。
先ずは生成AIとは?、ということで、渋谷でパスタのランチを食べたいと思った時のお店の調べ方を例に、従来のブラウザ検索から生成AIを使った対話型への変化をデモでご紹介。
なぜこういうことができるようになっているのか、ということで、大規模言語モデルの急速な進化や、それを容易に使えるBardやChat GPTの様なサービスが出てきていることをご説明いただきました。
現在の生成AIの種類は大きく、言語、文書、画像、動画の4つで、付け加えるとするなら音楽に分類できるとのこと。
生成AIにおけるGoogleのアプローチもご紹介いただき、2015年の深層学習流行の時代からTPUといったプロセッサ開発や、2017年から大規模データセットを学習できるモデルの開発に取り組み、Transformer、BERT、LaMDAと名前を変えながら進化させ、現在のPaLM2など基盤モデルにつながっていること、Bardのサービス化などをご紹介いただきました。
また生成AIのモデルのチューニングとして、プロンプトチューニングや、汎用的な基盤モデルを特定の業界向けにチューニングするなどをご紹介いただきました。
医療業界で使用する基盤モデルには医療向けの知識に答えられるように学習させたMed-PaLM2を開発する、などの取り組みを進めているそうです。
最後に、Google Cloudが利用者の専門性に応じて提供している生成AIサービスをご紹介いただきました!
私は基礎的な勉強を始めたばかりだったので、基礎知識やこれまでの流れを押さえるのに大変勉強になりました。
西岡さん、ありがとうございました!
FISCリファレンスガイドの作成状況 Google Cloud 湯浅さん
続いては、FISCのリファレンスガイド作成プロジェクトのパート。
冒頭、司会のGoogle Cloud 金澤さんから、本プロジェクトは、以前、金融分科会で作成したFISCのリファレンスガイドを、FISCの安全対策基準が改版されたことに伴い、アップデートしていくこと、今回はGoogle Cloudだけでなく、Google Workspaceも含めたリファレンスガイドを作成していくことをご紹介いただきました。
本編はGoogle Cloud湯浅さんから、先日のキックオフからの進行状況の中間報告としてご紹介。
最初にFISCの安全対策基準の概要説明とリファレンスガイドの構成についてお話いただきました。
このプロジェクトには40名以上の有志の方々が参加しており、金融機関のGoogle Cloudの利用を安全確実なものとすることは元より、金融分科会のコミュニティ活動を通じて参加メンバーそれぞれのスキル、特にセキュリティに関するスキルを高めていきたいという目的で進められているプロジェクトであることをご紹介いただきました。
こちらのリファレンスガイドは、11月15&16日に開催されるGoogle Cloud Next Tokyo ‘23での発表を予定しております!
LT
AIサービスを安全に利用するために検討したこと
ここからはLTのパート、トップバッターは暑すぎて最近髪を切ったという、佐古さんから。
多様な知的労働のシーンで活用が期待される生成AIについて、ありがちな注意点を列挙いただき、例えば個人情報の取り扱いの観点では、何かしらの理由でAIサービス提供者が保存データを見るなら、個人情報の第三者提供になり、注意が必要であることなどをご説明いただきました。
AIサービスで想定されるセキュリティリスクとして、「入力」、「出力」、「入出力データの保管」の3つに大別して考えることができることをご紹介いただきました。
入力された情報が第三者にも利用されるリスク、サービスによって30日間は悪用防止のためにデータ保管されるのがデフォルトであり、それが攻撃を受けて漏れてしまうリスク、プロンプトインジェクションを受けてAIが何でも答えてしまうといったリスクをご紹介いただき、
1.AIサービスに機密情報や個人情報を入力しない
2.AIサービスの出力結果を鵜呑みにしない
3.セキュリティ対策機能があるAIサービスや有料プランを使う
などの具体策を実例を交えて説明していただきました。
生成AIは気をつけて使わなければいけないものという認識はしていましたが、大変分かりやすいご説明で、具体的なリスクやセキュリティ方針の考え方の理解が深まり、私にとっては目から鱗のお話でした。
佐古さん、ありがとうございました!
Generative AIの検討状況
続いては、シンプレクスの高橋さんより、Generative AIの検討状況というテーマでのLT。
所属企業でのGenerative AIコンピテンシーの設立と、グループのAI企業であるDeep Perceptさん、インフラを担当するシンプレクスさんのメンバーで組成した専門チームでの取り組みとして、社内業務における生成AI活用方法の相談、社内活用PoC、事例のイベント発表などを進め、最終的なお客様への提供を目指して、現在は検討中の状況をご紹介いただきました。
実際に構築されたブラウザベース利用のチャットボットでは、セキュリティのことなども考慮しながらインフラ構築を進められたとのことです。
今後はブラウザベースでの応答に加えて、社内のSlackなどで対話的に利用できるようなプラグイン開発なども検討されているそうです。
さらに、コーディングツールとしての生成AI利用を開始し、社内利用者の意見収集を進めているそうです。
最後に、社内利用が着々と進んできているという印象とお話いただき、費用対効果も見据えながら、社外への提供も検討していきたいとの所感をいただきました。またGenerative AIの進歩が早いため、キャッチアップが必要だと感じられているとのお話をいただきました。
実際に試してみることの重要性を再確認するとともに、早々に専門チームを組成して取り組まれている状況に驚かされるお話でした。
高橋さん、ありがとうございました!
JDLA生成AI試験合格!日本初のGenerative AI受験レポート
LTのトリはJagu’e’r 金融分科会会長の渥美さんから、JDLA 生成AI試験合格!ということで、日本初のGenerative AI 受験レポートをお話いただきました。
試験のシラバスから、出題の3分野としては、「生成AIの技術」、「利活用」、「リスク」であり、
-生成AIの技術についてはディープラーニングの様々な単語の意味を理解すること
-利活用については世の中の事例を知ること
-リスクについては生成AIを使う上で何をやって良くて、何をやってはいけないかなどを正しく理解すること
が求められる内容とのこと。
試験時間の15分という短さや、試験の検討プロジェクトメンバーにU-18の山口県のAIコンペティションで1位を取った勝山 翔紀氏が参画していることなどに驚いたとのことをご紹介いただきました。
シラバスの中でも参考資料として挙げられている、2023年3月に実施したイベントのアーカイブ動画や、JDLAが作成した生成AI利用ガイドラインにも注目してほしいとのこと。
最後に受験した所感として、よくこの短期間で試験実施したことに驚いたこと、生成AIに対する意見も様々ある中で、有識者の英知を結集して試験実施をやり抜いたことは本当にすごいことだと感動したとご紹介いただきました。
生成AIに関する一定の見識であり、これからも変わり続ける分野なので勉強し続けることが必要であることを前提にして、活用してみることが良いのではないかとお話いただきました。
私は渥美さんのお話でJDLAが生成AIの資格試験を実施したことを知りましたが、本当にスピード感ある試験実施に驚かされました。
次回、ぜひ私もチャレンジしてみたいと思います!
渥美さん、ありがとうございました!
以上で全ての発表が終わり、渋谷ストリームの会場では懇親会へ。
発表いただいた皆様、ありがとうございました!
最後に
今回、「生成AI」をテーマに実施し、様々なお話を聞かせていただきました。
8月29日-31日にサンフランシスコで開催されたGoogle Cloud Next ‘23では、生成AIに関する発表も多数であったとのことで、こちらについてもキャッチアップしていきたいと思います!
次回、第9回は12月13日に開催予定です。
引き続き、よろしくお願いいたします!