ソフトウェア
GPT-3のExamples/ML・AI language model tutorを試してみた
フリーソフト・オープンソースを活用しよう。
GPT-3のExamples/ML・AI language model tutorを試してみた
GPT-3のExamples/ML・AI language model tutorを試してみた
2021/11/28
OpenAIの自然言語処理モデルGPT-3のExamples/ML・AI language model tutorを試してみました。
ML/AI language model tutor
debian:~$ python openai_examples_ml_ai_tutor.py
('機械学習/人工知能言語モデルの家庭教師\n\n\nあなた: 言語モデルって何?\n機械学習の家庭教師: 言語モデルとは、会話や文章内で出てきた単語の確率統計モデルのことです。\nあなた: 統計モデルって何?\n機械学習の家庭教師:',)
統計モデルとは、ある特定の分野における確率分布を表したものです。例えば、ある
debian:~$ python openai_examples_ml_ai_tutor.py
('機械学習/人工知能言語モデルの家庭教師\n\n\nあなた: 言語モデルって何?\n機械学習の家庭教師: 言語モデルとは、会話や文章内で出てきた単語の確率統計モデルのことです。\nあなた: 統計モデルって何?\n機械学習の家庭教師:',)
{
"id": "cmpl-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx",
"object": "text_completion",
"created": xxxxxxxx,
"model": "davinci:2020-05-03",
"choices": [
{
"text": " 統計モデルとは、ある特定の事象が起こる確率を算出するモデルのことです。\n機械学",
"index": 0,
"logprobs": null,
"finish_reason": "length"
}
]
}
debian:~$
Q&A形式の言語モデルに関する質疑応答チャットボットML/AI language model tutor。
これはオリジナル例に沿った方が良いかなと意訳しただけにしました。
統計モデルについて、ちゃんと説明してくれていますね。
debian:~$ cat openai_examples_ml_ai_tutor.py
import openai
import os
import json
openai.api_key = os.getenv("OPENAI_API_KEY")
#prompt="ML/AI language model tutor\n\n\nYou: What is a language model?\nML Tutor: A language model is a statistical model that describes the probability of a word given the previous words.\nYou: What is a statistical model?\nML Tutor:",
prompt="機械学習/人工知能言語モデルの家庭教師\n\n\nあなた: 言語モデルって何?\n機械学習の家庭教師: 言語モデルとは、会話や文章内で出てきた単語の確率統計モデルのことです。\nあなた: 統計モデルって何?\n機械学習の家庭教師:"
response = openai.Completion.create(
engine="davinci",
prompt=prompt,
temperature=0.3,
max_tokens=60,
top_p=1.0,
frequency_penalty=0.5,
presence_penalty=0.0,
stop=["あなた:"]
)
#print(prompt)
print(str(prompt))
print(" ")
print(response['choices'][0]['text'])
#print(str(response['choices'][0]['text']))
#print(json.dumps(response, ensure_ascii=False, indent=2))
debian:~$
ソースはこんな感じ、環境変数OPENAI_API_KEYに自分のAPIキーが入っている前提です。
そのままでは想定通り機能しないので一部オリジナルソースから変更しています。
print()、もしくは、json出力しないと実行しても何も表示されないので何れかを追加する必要があり、後者用にimport jsonを追加。
が、応答内容によっては、何れか一方では表示できないことがあり、他方を使用せざるを得ないこともあります。
表示できないのが、print文なら、response配列を文字列にキャストすれば、たいていは凌げますが。
応答文だけだとチャット状態にならず、問いかけ文も表示したいところ。
が、サンプル通りだとprintやjson形式で出力しようにも問いかけ用の変数promptがスコープの範囲になく、スコープに入るようPythonの場合だとインデント階層を相応に上げたところで変数が登場(変数宣言)するようにする必要があります。
また、promptの中身によっては、文字列にキャストしないとエラーとなるケースもありました。
関連リンク