Zurück zu Fähigkeiten

outlines

davila7
Aktualisiert 11 days ago
239 Ansichten
18,478
1,685
18,478
Auf GitHub ansehen
MetaPrompt EngineeringOutlinesStructured GenerationJSON SchemaPydanticLocal ModelsGrammar-Based GenerationvLLMTransformersType Safety

Über

Outlines ist eine strukturierte Generierungsbibliothek, die gültige JSON/XML/Code-Ausgaben garantiert, indem sie die LLM-Sampling auf spezifische Grammatiken oder Schemata beschränkt. Sie ermöglicht typsichere Generierung mit Pydantic-Modellen und unterstützt schnelle Inferenz mit lokalen Modellen wie Transformers und vLLM. Nutzen Sie diese Fähigkeit, wenn Sie exakte Ausgabeformate erzwingen und die Geschwindigkeit für lokale Modellbereitstellungen maximieren müssen.

Schnellinstallation

Claude Code

Empfohlen
Primär
npx skills add davila7/claude-code-templates -a claude-code
Plugin-BefehlAlternativ
/plugin add https://github.com/davila7/claude-code-templates
Git CloneAlternativ
git clone https://github.com/davila7/claude-code-templates.git ~/.claude/skills/outlines

Kopieren Sie diesen Befehl und fügen Sie ihn in Claude Code ein, um diese Fähigkeit zu installieren

GitHub Repository

davila7/claude-code-templates
Pfad: cli-tool/components/skills/ai-research/prompt-engineering-outlines
0
anthropicanthropic-claudeclaudeclaude-code

Verwandte Skills

openrlhf-training

Design

OpenRLHF is a high-performance RLHF training framework for fine-tuning large language models (7B-70B+ parameters) using methods like PPO, DPO, and GRPO. It leverages Ray for distributed architecture and vLLM for accelerated inference, achieving speeds 2x faster than alternatives like DeepSpeedChat. Use this skill when you need efficient, distributed RLHF training with optimized GPU resource sharing and ZeRO-3 support.

Skill ansehen

sglang

Meta

SGLang is a high-performance LLM serving framework that uses RadixAttention for automatic prefix caching, enabling significantly faster structured generation. It's ideal for developers needing JSON/regex outputs, constrained decoding, or building agentic workflows with tool calls. Use it when you require up to 5× faster inference than alternatives like vLLM in scenarios with shared prefixes.

Skill ansehen

dspy

Meta

DSPy is a framework for building complex AI systems like RAG pipelines and agents using declarative programming. It automatically optimizes prompts and LM calls based on your data, moving beyond manual prompt engineering. Use it to create modular, maintainable, and systematically improved AI applications.

Skill ansehen

instructor

Testen

Instructor is a structured output library that extracts validated data from LLM responses using Pydantic schemas. It automatically retries failed extractions and provides type-safe JSON parsing with streaming support. Use it when you need reliable, validated data extraction from LLMs like OpenAI or Anthropic.

Skill ansehen