new
improved
2.7.14
- 🔥[New Feature] When debugging SSEstreaming responses for endpoints related toAI with LLMs, the merged message content can now be previewed inMarkdownformat.

- ⚡️[Optimization] During endpoint debugging, domain name resolution will now use IPv4first rather thanIPv6.
- ⚡️[Optimization] Endpoint debugging now supports HTTPS endpoints of TLS v1.0andv1.1.
- ⚡️[Optimization] Added an experimental feature: Enabling Send API requests using independent processescan prevent excessive memory usage.
- ⚡️[Optimization] Added an experimental feature: Enabling Optimize local service process memorycan reduce memory usage.

日本語:
- 🔥【新機能】SSEストリーム応答のLLM(大規模言語モデル)APIをデバッグする際に、メッセージ内容を自動的に統合し、Markdown形式の内容をプレビューできます。
- ⚡️【最適化】APIをデバッグする際、ドメイン名の解決には IPv6よりも優先してIPv4を使用します。
- ⚡️【最適化】APIをデバッグする際、TLS v1.0とv1.1の HTTPS APIをサポートします。
- ⚡️【最適化】試験的な機能を追加:独立プロセスでAPI Requestを実行することにより、Request送信後にメモリ使用量が高くなる問題を回避できます。
- ⚡️【最適化】試験的な機能を追加:ローカルサービスプロセスのメモリ最適化機能を追加しました。この機能を有効にすると、ローカル Mock を使用した後にメモリ使用量が急増する問題を避けることができます。