diff --git a/chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py b/chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py
deleted file mode 100644
index 8128569..0000000
--- a/chapter3/2_prompt-engineering/1_use-assistant-prompt-before.py
+++ /dev/null
@@ -1,28 +0,0 @@
-# Pyhton外部モジュールのインポート
-import json
-
-import boto3
-
-# Bedrockクライアントを生成
-client = boto3.client("bedrock-runtime")
-
-# ユーザープロンプト
-user_prompt = "HTMLの雛形を書いて"
-
-# リクエストボディを定義
-body = {
- "anthropic_version": "bedrock-2023-05-31",
- "max_tokens": 4096,
- "messages": [{"role": "user", "content": [{"type": "text", "text": user_prompt}]}],
-}
-
-# モデル呼び出し
-response = client.invoke_model(
- modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body)
-)
-
-# レスポンスから必要な情報を取得
-response_body = json.loads(response["body"].read())
-assistant_text = response_body["content"][0]["text"]
-
-print(assistant_text)
diff --git a/chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py b/chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py
deleted file mode 100644
index 5f19ae3..0000000
--- a/chapter3/2_prompt-engineering/2_use-assistant-prompt-after.py
+++ /dev/null
@@ -1,33 +0,0 @@
-# Pyhton外部モジュールのインポート
-import json
-
-import boto3
-
-# Bedrockクライアントを生成
-client = boto3.client("bedrock-runtime")
-
-# ユーザープロンプト
-user_prompt = "HTMLの雛形を書いて"
-# アシスタントプロンプト
-assistant_prompt = ""
-
-# リクエストボディを定義
-body = {
- "anthropic_version": "bedrock-2023-05-31",
- "max_tokens": 4096,
- "messages": [
- {"role": "user", "content": [{"type": "text", "text": user_prompt}]},
- {"role": "assistant", "content": [{"type": "text", "text": assistant_prompt}]},
- ],
-}
-
-# モデル呼び出し
-response = client.invoke_model(
- modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body)
-)
-
-# レスポンスから必要な情報を取得
-response_body = json.loads(response["body"].read())
-assistant_text = response_body["content"][0]["text"]
-
-print(assistant_text)
diff --git a/chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py b/chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py
deleted file mode 100644
index 8b404c5..0000000
--- a/chapter3/2_prompt-engineering/3_use-assistant-prompt-json.py
+++ /dev/null
@@ -1,47 +0,0 @@
-# Pyhton外部モジュールのインポート
-import json
-
-import boto3
-
-# Bedrockクライアントを生成
-client = boto3.client("bedrock-runtime")
-
-# ユーザープロンプト
-user_prompt = """あなたのタスクは文書から必要な情報をピックアップすることです。
-タグの内容はAWSのニュース記事からの引用です。
-
-
-Meta Llama 2, Cohere Command Light, and Amazon Titan FMs can now be fine-tuned in Amazon Bedrock
-Posted On: Nov 28, 2023
-
-Amazon Bedrock is an easy way to build and scale generative AI applications with leading foundation models (FMs). Amazon Bedrock now supports fine-tuning for Meta Llama 2 and Cohere Command Light, along with Amazon Titan Text Lite and Amazon Titan Text Express FMs, so you can use labeled datasets to increase model accuracy for particular tasks.
-
-Organizations with small, labeled datasets that want to specialize a model for a specific task use a process called fine-tuning, which adapts the model’s parameters to produce outputs that are more specific to their business. Parameters represent what the model has learned during training, and adjusting them can refine the model’s knowledge and capabilities to make decisions within an organization’s context. Using a small number of labeled examples in Amazon S3, you can fine-tune a model without having to annotate large volumes of data. Bedrock makes a separate copy of the base foundation model that is accessible only by you and trains this private copy of the model. None of your content is used to train the original base models. You can configure your Amazon VPC settings to access Amazon Bedrock APIs and provide model fine-tuning data in a secure manner.
-Meta Llama 2, Cohere Command Light, and Amazon Titan Text FMs can now be fine-tuned in Amazon Bedrock in the US East (N. Virginia) and US West (Oregon) AWS Regions. To learn more, read the AWS News launch blog, Amazon Bedrock product page, and documentation. To get started with fine-tuning in Amazon Bedrock, visit the Amazon Bedrock console.
-
-
-タイトル、発表日、概要をJSON形式で出力してください。
-"""
-# アシスタントプロンプト
-assistant_prompt = "{"
-
-# リクエストボディを定義
-body = {
- "anthropic_version": "bedrock-2023-05-31",
- "max_tokens": 4096,
- "messages": [
- {"role": "user", "content": [{"type": "text", "text": user_prompt}]},
- {"role": "assistant", "content": [{"type": "text", "text": assistant_prompt}]},
- ],
-}
-
-# モデル呼び出し
-response = client.invoke_model(
- modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body)
-)
-
-# レスポンスから必要な情報を取得
-response_body = json.loads(response["body"].read())
-assistant_text = response_body["content"][0]["text"]
-
-print(assistant_text)
diff --git a/chapter3/2_prompt-engineering/4_use-stop-sequence-before.py b/chapter3/2_prompt-engineering/4_use-stop-sequence-before.py
deleted file mode 100644
index 18f407d..0000000
--- a/chapter3/2_prompt-engineering/4_use-stop-sequence-before.py
+++ /dev/null
@@ -1,35 +0,0 @@
-# Pyhton外部モジュールのインポート
-import json
-
-import boto3
-
-# Bedrockクライアントを生成
-client = boto3.client("bedrock-runtime")
-
-# ユーザープロンプト
-user_prompt = """あなたのタスクは料理のレシピを考えることです。
-
-1. 料理を考え、<タイトル>タイトル>タグで出力します。
-2. 料理の材料を考え、<材料>材料>タグで出力します。
-3. 料理の手順を考え、<手順>手順>タグで出力します。
-
-パスタのレシピを考えて
-"""
-
-# リクエストボディを定義
-body = {
- "anthropic_version": "bedrock-2023-05-31",
- "max_tokens": 4096,
- "messages": [{"role": "user", "content": [{"type": "text", "text": user_prompt}]}],
-}
-
-# モデル呼び出し
-response = client.invoke_model(
- modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body)
-)
-
-# レスポンスから必要な情報を取得
-response_body = json.loads(response["body"].read())
-assistant_text = response_body["content"][0]["text"]
-
-print(assistant_text)
diff --git a/chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py b/chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py
deleted file mode 100644
index 84652ab..0000000
--- a/chapter3/2_prompt-engineering/5_use-stop-sequence-after-step1.py
+++ /dev/null
@@ -1,38 +0,0 @@
-# Pyhton外部モジュールのインポート
-import json
-
-import boto3
-
-# Bedrockクライアントを生成
-client = boto3.client("bedrock-runtime")
-
-# ユーザープロンプト
-user_prompt = """あなたのタスクは料理のレシピを考えることです。
-
-1. 料理を考え、<タイトル>タイトル>タグで出力します。
-2. 料理の材料を考え、<材料>材料>タグで出力します。
-3. 料理の手順を考え、<手順>手順>タグで出力します。
-
-パスタのレシピを考えて
-"""
-# 停止シーケンス
-stop_sequences = "材料>"
-
-# リクエストボディを定義
-body = {
- "anthropic_version": "bedrock-2023-05-31",
- "max_tokens": 4096,
- "messages": [{"role": "user", "content": [{"type": "text", "text": user_prompt}]}],
- "stop_sequences": [stop_sequences],
-}
-
-# モデル呼び出し
-response = client.invoke_model(
- modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body)
-)
-
-# レスポンスから必要な情報を取得
-response_body = json.loads(response["body"].read())
-assistant_text = response_body["content"][0]["text"]
-
-print(assistant_text)
diff --git a/chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py b/chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py
deleted file mode 100644
index 0240774..0000000
--- a/chapter3/2_prompt-engineering/6_use-stop-sequence-after-step2.py
+++ /dev/null
@@ -1,50 +0,0 @@
-# Pyhton外部モジュールのインポート
-import json
-
-import boto3
-
-# Bedrockクライアントを生成
-client = boto3.client("bedrock-runtime")
-
-# ユーザープロンプト
-user_prompt = """あなたのタスクは料理のレシピを考えることです。
-
-1. 料理を考え、<タイトル>タイトル>タグで出力します。
-2. 料理の材料を考え、<材料>材料>タグで出力します。
-3. 料理の手順を考え、<手順>手順>タグで出力します。
-
-パスタのレシピを考えて
-"""
-# アシスタントプロンプト
-assistant_prompt = """<タイトル>トマトとバジルのパスタタイトル>
-
-<材料>
-- パスタ(リングイネ、ペンネなど) 400g
-- トマト缶 1缶
-- バジル 1束
-- ニンニク 2かけ
-- オリーブオイル 大さじ2
-- 塩、こしょう 適量
-- カレー粉 適量
-材料>"""
-
-# リクエストボディを定義
-body = {
- "anthropic_version": "bedrock-2023-05-31",
- "max_tokens": 4096,
- "messages": [
- {"role": "user", "content": [{"type": "text", "text": user_prompt}]},
- {"role": "assistant", "content": [{"type": "text", "text": assistant_prompt}]},
- ],
-}
-
-# モデル呼び出し
-response = client.invoke_model(
- modelId="anthropic.claude-3-sonnet-20240229-v1:0", body=json.dumps(body)
-)
-
-# レスポンスから必要な情報を取得
-response_body = json.loads(response["body"].read())
-assistant_text = response_body["content"][0]["text"]
-
-print(assistant_text)
diff --git a/chapter3/2_prompt-engineering/requirements.txt b/chapter3/2_prompt-engineering/requirements.txt
deleted file mode 100644
index 88409f3..0000000
--- a/chapter3/2_prompt-engineering/requirements.txt
+++ /dev/null
@@ -1 +0,0 @@
-boto3==1.34.121