気の向くままに辿るIT/ICT
ソフトウェア

GPT-3のExamples/Python bug fixerを試してみた

ホーム前へ次へ
フリーソフト・オープンソースを活用しよう。

GPT-3のExamples/Python bug fixerを試してみた

GPT-3のExamples/Python bug fixerを試してみた

2021/11/23

 OpenAIの自然言語処理モデルGPT-3のExamples/Python bug fixerを試してみました。

Python bug fixer

debian:~$ python openai_examples_fix_python_bugs.py
Traceback (most recent call last):
 File "/path/to/openai_examples_explain_code.py", line 10, in
  response = openai.Completion.create(
 File "/home/xxx/.local/lib/python3.9/site-packages/openai/api_resources/completion.py", line 31, in create
  return super().create(*args, **kwargs)
 File "/home/xxx/.local/lib/python3.9/site-packages/openai/api_resources/abstract/engine_api_resource.py", line 65, in create
  response, _, api_key = requestor.request(
 File "/home/xxx/.local/lib/python3.9/site-packages/openai/api_requestor.py", line 107, in request
  resp, got_stream = self._interpret_response(result, stream)
 File "/home/xxx/.local/lib/python3.9/site-packages/openai/api_requestor.py", line 292, in _interpret_response
  self._interpret_response_line(
 File "/home/xxx/.local/lib/python3.9/site-packages/openai/api_requestor.py", line 318, in _interpret_response_line
  raise self.handle_error_response(
openai.error.InvalidRequestError: Engine not found
debian:~$

 何らかの方法でバグがあることを示唆した(Python)ソースコードを投げるとバグを発見・解決して(書き直して)くれるPython bug fixer

 ダメ元で実行してみましたが、やはり、Explain code同様、後述のスクリプトで指定の処理エンジンdavinci-codexがないエラー。

OpenAI GPT-3 codex利用申請フォームリンクの場所
2021/12/04

 あ、一通り終わってよく見たら、各Examplesの右上に[Open in Playground]というボタンがあり、(davinci-)codexを使うものは背景がグレーアウトでポイントは可、クリック不可、それ以外はグリーンでクリック可能でWebエディタ?に遷移するようになっていました。

 でグレーアウトされた[Open in Playground]をマウスでポイントして文中の[join the waitlist]のリンクをクリックすると申請フォームに遷移、登録後、しばらく待って利用可能メールがくれば晴れてcodexエンジンを使えるようになるとのこと。

 これは、現時点ではプライベートベータ版であるCodexモデルシリーズを使うサンプルで、やってみたいなら待機リストに登録してねってことのようです。

debian:~$ cat openai_examples_fix_python_bugs.py
import openai
import os
import json
 
openai.api_key = os.getenv("OPENAI_API_KEY")
#prompt="##### Fix bugs in the below function\n \n### Buggy Python\nimport Random\na = random.randint(1,12)\nb = random.randint(1,12)\nfor i in range(10):\n question = \"What is \"+a+\" x \"+b+\"? \"\n answer = input(question)\n if answer = a*b\n print (Well done!)\n else:\n print(\"No.\")\n \n### Fixed Python",
prompt="##### 下記の関数のバグを直して\n \n### バグのあるPythonスクリプト\nprint(Hello World!)\n \n### Fixed Python"
 
response = openai.Completion.create(
 engine="davinci",
 prompt=prompt,
 temperature=0,
 max_tokens=182,
 top_p=1,
 frequency_penalty=0.0,
 presence_penalty=0.0,
 stop=["###"]
)
#print(prompt)
print(str(prompt))
print(" ")
print(response['choices'][0]['text'])
#print(str(response['choices'][0]['text']))
#print(json.dumps(response, ensure_ascii=False, indent=2))
debian:~$

 ソースはこんな感じ、環境変数OPENAI_API_KEYに自分のAPIキーが入っている前提です。

 そのままでは想定通り機能しないので一部オリジナルソースから変更しています。

 print()、もしくは、json出力しないと実行しても何も表示されないので何れかを追加する必要があり、後者用にimport jsonを追加。

 が、応答内容によっては、何れか一方では表示できないことがあり、他方を使用せざるを得ないこともあります。

 表示できないのが、print文なら、response配列を文字列にキャストすれば、たいていは凌げますが。

 応答文だけだとチャット状態にならず、問いかけ文も表示したいところ。

 が、サンプル通りだとprintやjson形式で出力しようにも問いかけ用の変数promptがスコープの範囲になく、スコープに入るようPythonの場合だとインデント階層を相応に上げたところで変数が登場(変数宣言)するようにする必要があります。

 また、promptの中身によっては、文字列にキャストしないとエラーとなるケースもありました。

ホーム前へ次へ