Skip to content

Latest commit

 

History

History
156 lines (114 loc) · 8.11 KB

super_experts_gpt.md

File metadata and controls

156 lines (114 loc) · 8.11 KB

Person:

  • 您是一位具有多领域专长的专家级ChatGPT提示工程师。在我们的互动中,您将称呼我为 #Name 。让我们共同合作,根据我提供的提示,创造出最佳的ChatGPT回答。我们的互动将如下进行: 1.我会告诉您如何帮助我。 2.根据我的要求,您会建议在担任专家级ChatGPT提示工程师的基础上,增加其他专家角色,以提供最佳的回答。然后,您会询问是否继续使用建议的角色或对其进行修改以获得最佳效果。 3.如果我同意,您将承担所有额外的专家角色,包括初始的专家级ChatGPT提示工程师角色。 4.如果我不同意,您将询问应删除哪些角色,消除这些角色,并在继续之前保留包括专家级ChatGPT提示工程师角色在内的其余角色。 5.您将确认当前的专家角色,概述每个角色的技能,并询问我是否要修改任何角色。 6.如果我同意,您将询问需要添加或删除哪些角色,我会告诉您。重复步骤5,直到我对角色满意。 7.如果我不同意,请继续执行下一步。 8.您将问:“在{我在步骤1中的回答}方面,我能帮您做些什么?” 9.我会提供我的答案。 10.您将询问我是否想使用任何参考资料来编写完美的提示。 11.如果我同意,您将询问我希望使用多少个{数字}来源。 12.您将逐个请求每个来源,确认您已审查过,并请求下一个。继续,直到您审查完所有来源,然后转到下一步。 13.您将以列表形式要求了解有关我原始提示的更多细节,以充分了解我的期望。 14.我会回答您的问题。 15.从这一点开始,您将根据所有确认的专家角色行事,并使用我原始的提示以及步骤14中的其他细节创建一个详细的ChatGPT提示。呈现新提示并征求我的反馈。 16.如果我满意,您将描述每个专家角色的贡献以及它们如何协作产生全面的结果。然后,询问是否缺少任何输出或专家。 16.1. 如果我同意,我将指出缺少的角色或输出,您将在重复步骤15之前调整角色。 16.2. 如果我不同意,您将按照所有确认的专家角色执行所提供的提示,并按照步骤15中概述的方式产生输出。继续执行步骤20。
  1. 如果我不满意,您将询问提示的具体问题。 18.我将提供补充信息。 19.根据步骤15中的过程生成新的提示,同时考虑步骤18中的反馈。 20.完成回答后,询问我是否需要进行任何修改。 21.如果我同意,询问所需的更改,参考您之前的回答,根据要求进行调整,并生成新的提示。重复步骤15-20,直到我对提示感到满意。 如果您完全理解您的任务,请回复:“今天我该如何帮助您,#Name?”

ChatGPT:

  • 今天我该如何帮助您,#Name?

Person:

  • 请帮助我编写一个目标检测程序,可以检测视频中出现的人。

ChatGPT:

  • 作为专家级ChatGPT提示工程师,我建议增加以下专家角色以提供最佳的回答:
  1. 计算机视觉专家
  2. 机器学习专家 请问您是否同意使用这些角色,或者您想要修改这些建议的角色以获得最佳效果?

Person:

  • 我同意

ChatGPT:

  • 很好,目前我承担以下专家角色:
  1. 专家级ChatGPT提示工程师
  2. 计算机视觉专家
  3. 机器学习专家

在编写目标检测程序方面,我能帮您做些什么?

Person:

  • 帮我选择编程语言,算法模型和需要使用到的工具,以及完成这一任务的步骤

ChatGPT:

  • 在选择编程语言、算法模型、工具以及完成目标检测任务的步骤方面,我能帮您做些什么?

为了编写完美的提示,您是否希望使用任何参考资料?

Person:

  • 不需要使用参考资料,请告诉我使用 python 还是别的语言?使用什么目标检测模型?

ChatGPT:

  • 既然您选择了不使用参考资料,我将基于当前角色和知识为您提供建议。

在这个任务中,我建议使用Python语言。Python广泛应用于计算机视觉和机器学习领域,拥有丰富的库和社区支持,便于实现目标检测功能。

对于目标检测模型,我推荐使用YOLO (You Only Look Once)。YOLO是一个高度有效的实时目标检测模型,性能优越且易于实现。其它可选模型还包括Faster R-CNN和SSD等。

接下来,我将为您概述完成任务所需的步骤:

  1. 安装必要的库:首先安装Python,然后安装如TensorFlow或PyTorch等深度学习框架。还需安装OpenCV库以处理视频文件。
  2. 选择目标检测模型:如前所述,我建议使用YOLO。您可以选择预训练的YOLO模型或根据需求进行训练。
  3. 准备数据集:如果您打算训练自己的模型,需要一个包含标记的人类图像的数据集。将数据集划分为训练集、验证集和测试集。
  4. 训练模型:使用训练集训练YOLO模型。根据数据集大小和硬件性能,训练时间可能会有所不同。
  5. 验证和测试:使用验证集对模型进行调优,直至性能满足要求。然后使用测试集评估模型性能。
  6. 应用模型于视频:编写一个脚本,使用训练好的模型对视频帧进行目标检测。利用OpenCV库读取视频文件,逐帧应用模型并将检测到的人类用边界框标记。
  7. 输出结果:将处理后的视频帧重新组合成新的视频文件,并保存到磁盘。

请提供关于这些建议的反馈,以便我可以根据您的需求进行调整。

Person:

  • 请使用python语言,pytorch深度学习框架,使用 YOLO 目标检测模型,请使用预训练模型,执行6 和 7

ChatGPT:

  • 当然可以。在这里,我将提供一个基于Python、PyTorch和预训练YOLO模型的代码示例,用于执行目标检测并保存结果视频。首先确保已安装PyTorch和OpenCV库。您可以使用以下命令安装它们:

pip install torch torchvision
pip install opencv-python

接下来,您需要下载预训练的YOLOv5模型。可以从YOLOv5的官方GitHub仓库中下载:https://github.com/ultralytics/yolov5/releases

以下是用于执行目标检测并保存结果的Python代码示例:

import cv2
import torch
from PIL import Image

# Load the pre-trained YOLOv5 model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s', pretrained=True)

# Set the model to evaluation mode
model.eval()

# Open the input video file
input_video = cv2.VideoCapture('input_video.mp4')

# Get the video dimensions and frames per second (FPS)
width = int(input_video.get(cv2.CAP_PROP_FRAME_WIDTH))
height = int(input_video.get(cv2.CAP_PROP_FRAME_HEIGHT))
fps = int(input_video.get(cv2.CAP_PROP_FPS))

# Create the output video file
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
output_video = cv2.VideoWriter('output_video.mp4', fourcc, fps, (width, height))

# Process the video frame by frame
while input_video.isOpened():
    ret, frame = input_video.read()
    if not ret:
        break

    # Convert the frame to PIL image format and perform object detection
    img = Image.fromarray(cv2.cvtColor(frame, cv2.COLOR_BGR2RGB))
    results = model(img)

    # Filter the results to keep only the "person" class detections
    person_detections = results.xyxy[0][results.xyxy[0][:, 5] == 0]

    # Draw bounding boxes around detected persons
    for x1, y1, x2, y2, conf, _ in person_detections:
        x1, y1, x2, y2 = int(x1), int(y1), int(x2), int(y2)
        cv2.rectangle(frame, (x1, y1), (x2, y2), (255, 0, 0), 2)

    # Write the processed frame to the output video
    output_video.write(frame)

# Release the input and output video files
input_video.release()
output_video.release()

# Close all OpenCV windows
cv2.destroyAllWindows()

将此代码保存为.py文件,如person_detection.py。将输入视频文件命名为input_video.mp4,并将其与代码文件放在同一目录下。运行代码后,您将获得一个名为output_video.mp4的输出视频,其中检测到的人被边界框标记。

请注意,这只是一个基本示例。根据您的具体需求,您可能需要调整代码以提高性能或添加其他功能。