new

improved

2.7.14

  • 🔥[New Feature] When debugging
    SSE
    streaming responses for endpoints related to
    AI with LLMs
    , the merged message content can now be previewed in
    Markdown
    format.
merged-messages-markdown-format
  • ⚡️[Optimization] During endpoint debugging, domain name resolution will now use
    IPv4
    first rather than
    IPv6
    .
  • ⚡️[Optimization] Endpoint debugging now supports HTTPS endpoints of
    TLS v1.0
    and
    v1.1
    .
  • ⚡️[Optimization] Added an experimental feature: Enabling
    Send API requests using independent processes
    can prevent excessive memory usage.
  • ⚡️[Optimization] Added an experimental feature: Enabling
    Optimize local service process memory
    can reduce memory usage.
experimental-features
日本語:
  • 🔥【新機能】
    SSE
    ストリーム応答の
    LLM(大規模言語モデル)
    APIをデバッグする際に、メッセージ内容を自動的に統合し、
    Markdown
    形式の内容をプレビューできます。
  • ⚡️【最適化】APIをデバッグする際、ドメイン名の解決には
    IPv6
    よりも優先して
    IPv4
    を使用します。
  • ⚡️【最適化】APIをデバッグする際、
    TLS v1.0
    v1.1
    の HTTPS APIをサポートします。
  • ⚡️【最適化】試験的な機能を追加:独立プロセスでAPI Requestを実行することにより、Request送信後にメモリ使用量が高くなる問題を回避できます。
  • ⚡️【最適化】試験的な機能を追加:ローカルサービスプロセスのメモリ最適化機能を追加しました。この機能を有効にすると、ローカル Mock を使用した後にメモリ使用量が急増する問題を避けることができます。