From 6f12088440f51ec8d026e1ed59556ea9aa77e3a2 Mon Sep 17 00:00:00 2001 From: moritalous Date: Fri, 7 Jun 2024 13:37:02 +0000 Subject: [PATCH] =?UTF-8?q?=E6=9C=AC=E6=96=87=E3=81=8B=E3=82=89=E5=89=8A?= =?UTF-8?q?=E9=99=A4=E3=81=97=E3=81=9F=E3=82=BD=E3=83=BC=E3=82=B9=E3=82=92?= =?UTF-8?q?=E5=89=8A=E9=99=A4?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../1_use-assistant-prompt-before.py | 28 ----------- .../2_use-assistant-prompt-after.py | 33 ------------ .../3_use-assistant-prompt-json.py | 47 ----------------- .../4_use-stop-sequence-before.py | 35 ------------- .../5_use-stop-sequence-after-step1.py | 38 -------------- .../6_use-stop-sequence-after-step2.py | 50 ------------------- .../2_prompt-engineering/requirements.txt | 1 - 7 files changed, 232 deletions(-) delete mode 100644 chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py delete mode 100644 chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py delete mode 100644 chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py delete mode 100644 chapter3/2_prompt-engineering/4_use-stop-sequence-before.py delete mode 100644 chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py delete mode 100644 chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py delete mode 100644 chapter3/2_prompt-engineering/requirements.txt diff --git a/chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py b/chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py deleted file mode 100644 index 8128569..0000000 --- a/chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py +++ /dev/null @@ -1,28 +0,0 @@ -# Pyhton外部モジュールのインポート -import json - -import boto3 - -# Bedrockクライアントを生成 -client = boto3.client("bedrock-runtime") - -# ユーザープロンプト -user_prompt = "HTMLの雛形を書いて" - -# リクエストボディを定義 -body = { - "anthropic_version": "bedrock-2023-05-31", - "max_tokens": 4096, - "messages": [{"role": "user", "content": [{"type": "text", "text": user_prompt}]}], -} - -# モデル呼び出し -response = client.invoke_model( - modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body) -) - -# レスポンスから必要な情報を取得 -response_body = json.loads(response["body"].read()) -assistant_text = response_body["content"][0]["text"] - -print(assistant_text) diff --git a/chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py b/chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py deleted file mode 100644 index 5f19ae3..0000000 --- a/chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py +++ /dev/null @@ -1,33 +0,0 @@ -# Pyhton外部モジュールのインポート -import json - -import boto3 - -# Bedrockクライアントを生成 -client = boto3.client("bedrock-runtime") - -# ユーザープロンプト -user_prompt = "HTMLの雛形を書いて" -# アシスタントプロンプト -assistant_prompt = "" - -# リクエストボディを定義 -body = { - "anthropic_version": "bedrock-2023-05-31", - "max_tokens": 4096, - "messages": [ - {"role": "user", "content": [{"type": "text", "text": user_prompt}]}, - {"role": "assistant", "content": [{"type": "text", "text": assistant_prompt}]}, - ], -} - -# モデル呼び出し -response = client.invoke_model( - modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body) -) - -# レスポンスから必要な情報を取得 -response_body = json.loads(response["body"].read()) -assistant_text = response_body["content"][0]["text"] - -print(assistant_text) diff --git a/chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py b/chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py deleted file mode 100644 index 8b404c5..0000000 --- a/chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py +++ /dev/null @@ -1,47 +0,0 @@ -# Pyhton外部モジュールのインポート -import json - -import boto3 - -# Bedrockクライアントを生成 -client = boto3.client("bedrock-runtime") - -# ユーザープロンプト -user_prompt = """あなたのタスクは文書から必要な情報をピックアップすることです。 -タグの内容はAWSのニュース記事からの引用です。 - - -Meta Llama 2, Cohere Command Light, and Amazon Titan FMs can now be fine-tuned in Amazon Bedrock -Posted On: Nov 28, 2023 - -Amazon Bedrock is an easy way to build and scale generative AI applications with leading foundation models (FMs). Amazon Bedrock now supports fine-tuning for Meta Llama 2 and Cohere Command Light, along with Amazon Titan Text Lite and Amazon Titan Text Express FMs, so you can use labeled datasets to increase model accuracy for particular tasks. - -Organizations with small, labeled datasets that want to specialize a model for a specific task use a process called fine-tuning, which adapts the model’s parameters to produce outputs that are more specific to their business. Parameters represent what the model has learned during training, and adjusting them can refine the model’s knowledge and capabilities to make decisions within an organization’s context. Using a small number of labeled examples in Amazon S3, you can fine-tune a model without having to annotate large volumes of data. Bedrock makes a separate copy of the base foundation model that is accessible only by you and trains this private copy of the model. None of your content is used to train the original base models. You can configure your Amazon VPC settings to access Amazon Bedrock APIs and provide model fine-tuning data in a secure manner. -Meta Llama 2, Cohere Command Light, and Amazon Titan Text FMs can now be fine-tuned in Amazon Bedrock in the US East (N. Virginia) and US West (Oregon) AWS Regions. To learn more, read the AWS News launch blog, Amazon Bedrock product page, and documentation. To get started with fine-tuning in Amazon Bedrock, visit the Amazon Bedrock console. - - -タイトル、発表日、概要をJSON形式で出力してください。 -""" -# アシスタントプロンプト -assistant_prompt = "{" - -# リクエストボディを定義 -body = { - "anthropic_version": "bedrock-2023-05-31", - "max_tokens": 4096, - "messages": [ - {"role": "user", "content": [{"type": "text", "text": user_prompt}]}, - {"role": "assistant", "content": [{"type": "text", "text": assistant_prompt}]}, - ], -} - -# モデル呼び出し -response = client.invoke_model( - modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body) -) - -# レスポンスから必要な情報を取得 -response_body = json.loads(response["body"].read()) -assistant_text = response_body["content"][0]["text"] - -print(assistant_text) diff --git a/chapter3/2_prompt-engineering/4_use-stop-sequence-before.py b/chapter3/2_prompt-engineering/4_use-stop-sequence-before.py deleted file mode 100644 index 18f407d..0000000 --- a/chapter3/2_prompt-engineering/4_use-stop-sequence-before.py +++ /dev/null @@ -1,35 +0,0 @@ -# Pyhton外部モジュールのインポート -import json - -import boto3 - -# Bedrockクライアントを生成 -client = boto3.client("bedrock-runtime") - -# ユーザープロンプト -user_prompt = """あなたのタスクは料理のレシピを考えることです。 - -1. 料理を考え、<タイトル>タグで出力します。 -2. 料理の材料を考え、<材料>タグで出力します。 -3. 料理の手順を考え、<手順>タグで出力します。 - -パスタのレシピを考えて -""" - -# リクエストボディを定義 -body = { - "anthropic_version": "bedrock-2023-05-31", - "max_tokens": 4096, - "messages": [{"role": "user", "content": [{"type": "text", "text": user_prompt}]}], -} - -# モデル呼び出し -response = client.invoke_model( - modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body) -) - -# レスポンスから必要な情報を取得 -response_body = json.loads(response["body"].read()) -assistant_text = response_body["content"][0]["text"] - -print(assistant_text) diff --git a/chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py b/chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py deleted file mode 100644 index 84652ab..0000000 --- a/chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py +++ /dev/null @@ -1,38 +0,0 @@ -# Pyhton外部モジュールのインポート -import json - -import boto3 - -# Bedrockクライアントを生成 -client = boto3.client("bedrock-runtime") - -# ユーザープロンプト -user_prompt = """あなたのタスクは料理のレシピを考えることです。 - -1. 料理を考え、<タイトル>タグで出力します。 -2. 料理の材料を考え、<材料>タグで出力します。 -3. 料理の手順を考え、<手順>タグで出力します。 - -パスタのレシピを考えて -""" -# 停止シーケンス -stop_sequences = "" - -# リクエストボディを定義 -body = { - "anthropic_version": "bedrock-2023-05-31", - "max_tokens": 4096, - "messages": [{"role": "user", "content": [{"type": "text", "text": user_prompt}]}], - "stop_sequences": [stop_sequences], -} - -# モデル呼び出し -response = client.invoke_model( - modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body) -) - -# レスポンスから必要な情報を取得 -response_body = json.loads(response["body"].read()) -assistant_text = response_body["content"][0]["text"] - -print(assistant_text) diff --git a/chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py b/chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py deleted file mode 100644 index 0240774..0000000 --- a/chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py +++ /dev/null @@ -1,50 +0,0 @@ -# Pyhton外部モジュールのインポート -import json - -import boto3 - -# Bedrockクライアントを生成 -client = boto3.client("bedrock-runtime") - -# ユーザープロンプト -user_prompt = """あなたのタスクは料理のレシピを考えることです。 - -1. 料理を考え、<タイトル>タグで出力します。 -2. 料理の材料を考え、<材料>タグで出力します。 -3. 料理の手順を考え、<手順>タグで出力します。 - -パスタのレシピを考えて -""" -# アシスタントプロンプト -assistant_prompt = """<タイトル>トマトとバジルのパスタ - -<材料> -- パスタ(リングイネ、ペンネなど) 400g -- トマト缶 1缶 -- バジル 1束 -- ニンニク 2かけ -- オリーブオイル 大さじ2 -- 塩、こしょう 適量 -- カレー粉 適量 -""" - -# リクエストボディを定義 -body = { - "anthropic_version": "bedrock-2023-05-31", - "max_tokens": 4096, - "messages": [ - {"role": "user", "content": [{"type": "text", "text": user_prompt}]}, - {"role": "assistant", "content": [{"type": "text", "text": assistant_prompt}]}, - ], -} - -# モデル呼び出し -response = client.invoke_model( - modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body) -) - -# レスポンスから必要な情報を取得 -response_body = json.loads(response["body"].read()) -assistant_text = response_body["content"][0]["text"] - -print(assistant_text) diff --git a/chapter3/2_prompt-engineering/requirements.txt b/chapter3/2_prompt-engineering/requirements.txt deleted file mode 100644 index 88409f3..0000000 --- a/chapter3/2_prompt-engineering/requirements.txt +++ /dev/null @@ -1 +0,0 @@ -boto3==1.34.121