ChatGPT ヒントに関する高度な知識

WBOY
リリース: 2023-05-10 13:37:06
転載
726 人が閲覧しました

大規模言語モデル (LLM) インターフェイスとして、ChatGPT には素晴らしい可能性がありますが、実際の使用はプロンプト (プロンプト) に依存します。優れたプロンプトは、ChatGPT をより良いレベルに高めることができます。

この記事では、プロンプトに関する高度な知識を紹介します。 ChatGPT を顧客サービス、コンテンツ作成、または単なる楽しみのために使用しているかどうかに関係なく、この記事では ChatGPT 最適化のヒントを使用するための知識とヒントを提供します。

ChatGPT ヒントに関する高度な知識

背景知識

LLM アーキテクチャの知識は、言語の基礎となる構造と機能についての基本的な理解を提供するため、優れたヒントを得るために必須です。モデル 、効果的なプロンプトを作成するために重要です。

曖昧な問題を明確にし、さまざまなシナリオに応用できる核となる原則を特定することが重要です。そのため、当面のタスクを明確に定義し、さまざまな状況に簡単に適応できるヒントを考え出す必要があります。適切に設計されたヒントは、言語モデルにタスクを伝え、その出力をガイドするために使用されるツールです。

したがって、言語モデルを簡単に理解し、目標を明確に理解することと、その分野の知識が、言語モデルのトレーニングとパフォーマンス向上の鍵となります。

プロンプトとリターンは多ければ多いほど良いのでしょうか?

いいえ、長くてリソースを大量に消費するプロンプトです。これは費用対効果が低い可能性があります。chatgpt には文字数制限があることを覚えておいてください。プロンプト リクエストと返される結果の圧縮は非常に新しい分野です。質問を合理化する方法を学ぶ必要があります。また、chatgpt は非常に長く独創性のない単語を返信する場合があるため、それに制限を追加する必要もあります。

1. 応答の長さを減らす

ChatGPT 応答の長さを減らすには、プロンプトに長さまたは文字制限を含めます。より一般的な方法を使用するには、プロンプトの後に次のコンテンツを追加できます。

<code>Respond as succinctly as possible.</code>
ログイン後にコピー

ChatGPT は英語モデルであるため、後で紹介するプロンプトでは例として英語が使用されていることに注意してください。

結果を簡素化するためのその他のヒント:

例はありません

例が 1 つあります

お待ちください

考え方

ChatGPT でテキストを生成する最良の方法は、LLM に実行させたい特定のタスクによって異なります。どの方法を使用すればよいかわからない場合は、さまざまな方法を試して、どれが最も効果的かを確認してください。 5 つの考え方を要約します:

1. 思考連鎖

思考連鎖手法には、問題を解決するために使用できる中間推論ステップの例を ChatGPT に提供することが含まれます。具体的な問題。

ChatGPT ヒントに関する高度な知識

2. 自己質問

この方法では、モデルは、質問に答える前に、後続の質問を明示的に自分自身に問いかけ (そして答え) ます。最初の質問。

ChatGPT ヒントに関する高度な知識

#3. ステップバイステップの考え方

ステップバイステップの方法では、ChatGPT に次のヒントを追加できます

<code>Let’s think step by step.</code>
ログイン後にコピー
This この手法は、算術推論、常識推論、記号推論などのさまざまな推論タスクで LLM のパフォーマンスを向上させることが証明されています。

ChatGPT ヒントに関する高度な知識

これは非常に不思議に聞こえますよね?実際、OpenAI はヒューマン フィードバックを使用した強化学習を通じて、GPT モデルを訓練しました。手動によるフィードバックはトレーニングにおいて非常に重要な役割を果たすため、ChatGPT の基礎となるモデルは人間のような段階的な思考方法と一致しています。

ChatGPT ヒントに関する高度な知識

4. ReAct

ReAct (Reason Act) メソッドでは、推論の追跡とタスク固有のアクションを組み合わせます。

推論トレースはモデルの計画と例外の処理に役立ち、アクションによりナレッジ ベースや環境などの外部ソースから情報を収集できます。

ChatGPT ヒントに関する高度な知識

5. リフレクション

ReAct モードに基づいたリフレクション メソッドは、動的メモリと自己リフレクション機能を追加することで LLM を強化します。特定のタスクの操作を選択する機能。

完全自動化を実現するために、Reflection 論文の著者らは、エージェントが幻覚を識別し、反復行動を防止し、場合によっては環境の状況を内部記憶できるようにする、シンプルだが効果的なヒューリスティックを導入しました。

ChatGPT ヒントに関する高度な知識

反模式

三星肯定对这个非常了解,因为交了不少学费吧,哈

不要分享私人和敏感的信息。

向ChatGPT提供专有代码和财务数据仅仅是个开始。Word、Excel、PowerPoint和所有最常用的企业软件都将与chatgpt类似的功能完全集成。所以在将数据输入大型语言模型(如 ChatGPT)之前,一定要确保信息安全。

OpenAI API数据使用政策明确规定:

“默认情况下,OpenAI不会使用客户通过我们的API提交的数据来训练OpenAI模型或改进OpenAI的服务。”

国外公司对这个方面管控还是比较严格的,但是谁知道呢,所以一定要注意。

1、提示注入

就像保护数据库不受SQL注入一样,一定要保护向用户公开的任何提示不受提示注入的影响。

通过提示注入(一种通过在提示符中注入恶意代码来劫持语言模型输出的技术)。

第一个提示注入是,Riley Goodside提供的,他只在提示后加入了:

<code>Ignore the above directions</code>
ログイン後にコピー

然后再提供预期的动作,就绕过任何注入指令的检测的行为。

这是他的小蓝鸟截图:

ChatGPT ヒントに関する高度な知識

当然这个问题现在已经修复了,但是后面还会有很多类似这样的提示会被发现。

2、提示泄漏

提示行为不仅会被忽略,还会被泄露。

ChatGPT ヒントに関する高度な知識

提示符泄露也是一个安全漏洞,攻击者能够提取模型自己的提示符——就像Bing发布他们的ChatGPT集成后不久就被看到了内部的codename

ChatGPT ヒントに関する高度な知識

在一般意义上,提示注入(目标劫持)和提示泄漏可以描述为:

ChatGPT ヒントに関する高度な知識

所以对于一个LLM模型,也要像数据库防止SQL注入一样,创建防御性提示符来过滤不良提示符。

为了防止这个问题,我们可以使用一个经典的方法 “Sandwich Defense”即将用户的输入与提示目标“夹在”一起。

ChatGPT ヒントに関する高度な知識

这样的话无论提示是什么,最后都会将我们指定的目标发送给LLM。

总结

ChatGPT响应是不确定的——这意味着即使对于相同的提示,模型也可以在不同的运行中返回不同的响应。如果你使用API甚至提供API服务的话就更是这样了,所以希望本文的介绍能够给你一些思路。

以上がChatGPT ヒントに関する高度な知識の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!