Menu
Visit the Advantech Global website, or choose your country or region below.

Американский регион

  1. United States
  2. Brasil
  3. México
  4. Argentina
  5. Chile
  6. Colombia
  7. Perú

Европейский регион

  1. Europe
  2. РУС
  3. España

Азиатско-Тихоокеанский регион

  1. Australia
  2. 中国
  3. India
  4. Indonesia
  5. 日本
  6. 대한민국
  7. Malaysia
  8. Singapore
  9. 台灣
  10. ไทย
  11. Türkiye
  12. Việt Nam

Африка и Ближний Восток

  1. MENA

Регистрация в MyAdvantech

MyAdvantech является индивидуальным порталом для клиентов Advantech. Став членом Advantech, вы можете получать последние новости о продукции, приглашения на вебинар и специальные предложения интернет-магазина.

Зарегистрируйтесь прямо сейчас, чтобы получить быстрый доступ 24/7 к вашей учетной записи.

六个实用技巧让OpenAI更“聪明”

06.07.2023
在当今信息爆炸的时代,人们对于问题的答案需求日益增长,而其中一个核心问题是如何得到高质量的答案。作为开放人工智能技术的领军者,Azure OpenAI深知答案的质量对于用户体验和满意度的重要性。在Azure OpenAI的算法和模型中,一个关键因素是正确的提示方法(Promot)。

Promot原理:

Promot是指提供给模型的问题或指导性文本。正确的Promot可以引导模型理解问题的本质,全面把握上下文,从而生成准确、详细且有价值的答案。当Promot给出明确的指示、明晰的背景信息和具体的问题要求时,模型能够更好地理解用户的意图并作出相关回答。、 日前,OpenAI官方出品了《GPT最佳实践》来帮助使用者更好的使用Promote来优化AI体验之旅。

1.清晰的描述你的问题

  • 在您信息和上下文中详细描述您想要的答案类型或解决方案。 明确告诉GPT您希望它扮演的角色,如专家、名人或特定行业的人物。
  • 使用分隔符清楚地指示输入的问题的多个部分或要求,帮助模型更好地理解和处理每个部分。
  • 指定完成任务所需的步骤,模型可以按照您的指示逐步完成任务。
  •  如果您期望特定格式的回答,可以提供示例或指定所需的格式。
  • 如果您希望模型生成特定长度的回答,请明确指定所需的输出长度。

通过采用上述策略,您可以更清晰地表达您的需求,帮助GPT更好地理解并生成符合您预期的答案。

2.提供参考文本

在某些情况下,GPT可能会过于自信地给出错误的答案,特别是在处理复杂问题或需要引用和网址时。然而,我们可以借鉴考试时有参考资料的学生的做法,通过向GPT提供参考文本来降低错误答案的概率。 以下是一些方法:

  • 指示模型使用参考文本回答:将参考文本提供给GPT作为指导,以帮助模型在回答问题时更加准确和可靠,从而减少错误答案的产生。
  • 指示模型使用参考文本中的引用进行回答:引用是参考文本中重要的信息来源,可以提供相关的观点、数据或支持论据。

通过提供参考文本,我们可以更好地引导和利用GPT模型的能力,从而获得更准确和可靠的答案。

3.将复杂任务拆分为更简单的子任务

复杂任务往往比简单任务具有更高的错误率。正如软件工程中将复杂系统分解为一组模块化组件一样,提交给GPT的任务也可以采用相似的策略,将复杂任务通常可以重新定义为简单任务的工作流,其中早期任务的输出用于构造后续任务的输入,从而逐步接近最终目标。以下是一些方法:

  • 使用意向分类:通过意向分类,可以确定与用户查询最相关的说明或指导性文本。
  • 汇总筛选:对于需要进行长时间对话的应用程序,可以对以前的对话进行汇总或筛选,以便模型能够更好地理解上下文,并给出一致和连贯的回答。
  • 分段汇总长文档:对于较长的文档,可以采用分段汇总的方式,逐段处理并递归构建完整的摘要。

这种分解和策略的应用可以帮助我们更有效地利用GPT模型的能力

4.给GPT时间“思考”

GPT模型在试图立即回答问题时可能会出现更多的推理错误,而不是花时间去找出正确的答案。通过要求模型进行一系列的推理,可以帮助GPT更可靠地进行推理并给出正确的答案。以下是一些方法:

  • 告诉模型不要急于给出答案,而是先思考和推理。这样,模型有更多的时间来考虑问题,进行适当的推理。
  • 使用内心独白或一系列查询来隐藏模型的推理过程。这样,模型可以在内心中进行推理和思考,并将最终的答案呈现给用户。
  • 询问模型在以前的交互中是否遗漏了任何内容。模型在以前的对话中遗漏了一些关键信息或推理步骤,通过询问模型是否漏掉了内容,可以促使模型回顾以前的传递,并提供更完整和准确的答案。

通过给予GPT足够的时间进行思考和推理,使用隐藏推理过程的技巧,以及确保模型不遗漏重要信息,可以帮助模型更可靠地进行推理并给出正确的答案。

5.使用外部工具

如果某项任务可以通过其他工具更可靠或更高效地完成,而不是仅依赖GPT,那么我们可以将任务转交给这些工具,以充分利用它们的优势,可以有效弥补模型的弱点。以下是一些方法:

  • 文本检索系统可以提供相关文档的信息给GPT。这样,GPT可获得更多的背景知识和参考文献,从而生成更准确和全面的答案。
  • 使用基于嵌入的搜索实现高效的知识检索,可以将问题与已有的知识库或文档进行匹配,提供相关信息给GPT。这样,GPT可以借助外部搜索系统的能力来获取更准确和相关的知识。
  • 使用代码执行进行更准确的计算或调用外部API:如果涉及到复杂的计算或需要调用外部API来获取特定的信息,可以将相应的代码传递给代码执行引擎。这样,GPT可执行计算,调用API,并将结果整合到其生成的答案中。

通过使用外部工具,并结合GPT的能力,我们可以弥补模型的限制,提高答案的准确性和可靠性。

6.系统地测试更改

如果您知道如何评估模型的表现,提高性能将会更加容易。有时,对提示进行修改可能在一些孤立的示例上表现更好,但在更具代表性的示例集上可能导致整体性能下降。因此,为了确保更改对性能产生积极影响,可能需要定义一个综合的测试套件(也称为“评估”)。以下是一些方法:

  • 参考标准答案评估模型输出:可以定义一组标准答案,对模型的输出进行评估,比较它们与标准答案的一致性和准确性。这样可以帮助确定模型的性能以及对提示的修改是否产生了积极的影响。

通过参考标准答案来评估模型的输出,可以更系统地测试提示的修改对性能的影响。这样,可以更好地了解模型的优势和局限性,并根据评估结果进行进一步的改进和调整。综合的测试套件可以提供更全面的评估,从而帮助改进模型的性能。

研华可以提供什么?

研华作为微软Azure的OSPA合作伙伴,深耕工控领域多年,逐步协助伙伴利用物联网技术和云解决方案实现数字化转型。我们将充分发挥自身的技术专长和创新能力,为各行业带来更多的垂直方案。

随着人工智能的不断发展,Azure OpenAI将应用于更多场景。除了上面分享的实践技巧,研华可提供咨询服务,为您的业务场景推荐合适方案。 我们将持续关注Azure云服务的最新动态,并与您分享研华科技在各个领域的相关信息。敬请密切关注我们的微信公众号,获取更多精彩内容!如有相关需求欢迎联系研华嵌入式客服400-001-9088。