投稿

5月, 2023の投稿を表示しています

QEUR23_LMABYS2: 閑話休題~ブログをつくるとわかること

イメージ
~ いいよぉ、ブログって ~ QEU:FOUNDER : “いろんなことを同時に始めてしまって、もうバタバタだ・・・。今回はブログを見ながらちょっと休みね・・・。” D先生 : “どのブログですか?ああ・・・、ほう医学関係ですか?FOUNDERにしては、めずらしい・・・。” QEU:FOUNDER : “このブログは、 小生が自分で作りました 。たとえば、こんな感じで・・・。” D先生 : “えっ!?FOUNDERが自分で??” QEU:FOUNDER : “ 「とあるサービス」に4つの情報を入れれば簡単にブログを作成できます よ。ちなみに、パラメタ(指示情報)はラフにいうとこんな感じ。” ブログのコンセプト: こんな感じのブログを作りたい(タイトルはブログが考えてくれます) ブログのゴール: ブログの作成目的 ブログのトーン: 作風。重苦しいとか、カジュアルにとか・・・ ブログの大きさ: 文字数(多分英語の) D先生 : “いわゆるプロンプトエンジアリングの応用ですね。「ブログのコンセプト」というのはイメージがわかりますが、ゴールとトーンって意味が分かりにくいですね。” QEU:FOUNDER : “ゴールって、要するにブログの「結論」を決めるものです。だから、歴史人物のブログを書こうと思えば、ゴールを「あいつはいい奴だ」と書くのと、「あいつは悪い奴だ」と書くのでは、ブログの流れがかわります。” D先生 : “う~ん・・・。これは面白い。” QEU:FOUNDER : “そして、トーンは「作者の立場」と考えるとわかりやすいです。たとえば、バブル崩壊を例にとれば「政治学者」の立場から見る、それとも「経済学者」から見るのでは違います。あとは、できるだけ箇条書きにするとか、統計上の数字を多用してとかの細かい設定もできますよ。” D先生 : “ますます面白いですね。AIブログの出来はどうです?” QEU:FOUNDER : “まあ、(このシステムが)使っているのは GPT3.5 だからね、ブログの出来はそこそこですよ・・・。そして多くのブログを作成したうえで、その文章群を評価すると GPT内に存在する情報の少なさに驚きました 。これがわかったことが今回のブログ作成の実験で最も大きな収穫かな...

QEUR23_LMABYS1: ミニLLMモデルとLangChainの相性は?

イメージ
~ 「やってみた」からはじめよう ~ D先生 : “あれ?もう・・・。ミニLLM(大規模言語モデル)って・・・(笑)。” QEU:FOUNDER : “GPT4Allを無理やり、別の言葉で表現してみました。はっきりいって、ミニLLMモデルは、今、山ほどあります。我々としては、現在手に入る、目的に合ったものを少しづつ試してみるだけ・・・。” D先生 : “これだけ変化が激しい状態で、今、意識を集中して「今現在、最も良いモノを探す」のは、たしかにムダといえます。さて、FUNDERのいうところの「目的」とは? LLMに自分のノウハウを注入する という・・・。” QEU:FOUNDER : “そういえば、LangChainというシステムがはやっているらしいね。これも、「とある勉強会(↑)」に参加して知りました。ただし、似た機能を持つ他のソルーションもありますよ。これのどちらを使うのかも、あとでゆっくり決めようかなと・・・。” D先生 : “これだけ、 世の中が大きく動いている としょうがないですね。” QEU:FOUNDER : “世の中が大きく動いている。このことを、LangChainのバージョン管理が最も的確に表現しています。小生、 「0.0.XXX」というバージョン情報 を初めて見ました。コレを作っている人間でも、近未来にLLMがどのように変化するのかの予想がつかないんです。” D先生 : “う~ん・・・。ひょっとして、このシステム(LangChain)って、全然つかえないんじやぁ?” QEU:FOUNDER : “それは逆です。今、すごく流行していますよ。もし、今、「新機能をもったLLMのサービスを始めました」とか言うサービスを見つけたら、ほとんどがコレを使っていると思ってください。それでは、我々としては地味にGPT4AllをLangChainで使うことから始めますか・・・。” D先生 : “ほとんどの人はOpenAIのAPI_Keyを使っているでしょ?お金がもったいないの?” QEU:FOUNDER : “まあ、そりゃそう・・・。でも、一番の意図は「さしあたり使ってみたい」だけだから・・・。しばらくしたら、もっとスゴイ、超絶ソルーションが出てもおかしくないです。それではプログラムをドン!!” ...

QEUR23_LMABYS0: INTRODUCTION~実際に使ってみたいね、LLM・・・

イメージ
~ 現在進行形のイノベーションを実感したい ~ ・・・ FOUNDERは、またまた気が変わり ・・・・ QEU:FOUNDER : “ 大規模言語モデル を使って、ちょっと遊んでみましょうか・・・。” D先生 : “あれ?Stable_Diffusionを続けるんじゃなかったんでしたっけ?確かに、前回でEmbeddingの代わりにT法を使うというテストに成功したので、一区切りはついたとは言えますが・・・。” C部長: “以前、FOUNDERはボクに「コンサルタントの代わりになる大言語モデルがあるといいなぁ」といっていました。あと、GPTはQEUラウンド2.3の目指す方向にもあっているといえます。ちなみに 「高齢者によるイノベーション」は続いています 。高齢者の皆さま、いまイノベーションしてますか?” QEU:FOUNDER : “結局、小生も、今、世の中に渦巻いている大きなイノベーションの渦を覗き込みたいと思っているのでね。まあ、取り組む順序を少しだけ組み替えたと考えてくださいな・・・。Stable_Diffusionの特性を理解したとき、やはりテキスト処理も触れておきたいと思ったんです。” (Stable_Diffusion事例のプロンプト) prompt = '((1girl:1.3),blue eye,in style of {0},standing,looking at viewer), (beach, in style of {1}:1.1), などなど ' ここで、{0}と{1}にアーティスト名がつく QEU:FOUNDER : “勉強会(↓)に参加し、思う所があった。” D先生 : “う~ん・・・。説明がとても丁寧・・・。この勉強会の説明は分かりやすいですね。海外のYoutubeのレクチャーを見ても、これほどうまく説明されていません。ちょっと持ち上げすぎ(笑)?” QEU:FOUNDER : “Stable_Diffusionはいくつかのモジュールが組み合わさってできています。そのうち、我々がかかわってきたのテキスト関連の作業は、Text Encoderが担当しています。ユーザーが入力したテキスト(プロンプト)をベクトルに分解して、Denoising Autoencoderに入...