Zurück zu Fähigkeiten

huggingface-tokenizers

davila7
Aktualisiert 16 days ago
380 Ansichten
18,478
1,685
18,478
Auf GitHub ansehen
DokumenteTokenizationHuggingFaceBPEWordPieceUnigramFast TokenizationRustCustom TokenizerAlignment TrackingProduction

Über

Diese Fähigkeit bietet eine leistungsstarke Tokenisierung mit HuggingFace's Rust-basierter Bibliothek und verarbeitet 1 GB Text in unter 20 Sekunden. Sie unterstützt BPE-, WordPiece- und Unigram-Algorithmen und ermöglicht das Training benutzerdefinierter Tokenizer sowie die Verfolgung von Ausrichtungen. Nutzen Sie sie, wenn Sie produktionsreife, schnelle Tokenisierung benötigen oder benutzerdefinierte Tokenizer erstellen möchten, die in das Transformers-Ökosystem integriert sind.

Schnellinstallation

Claude Code

Empfohlen
Primär
npx skills add davila7/claude-code-templates -a claude-code
Plugin-BefehlAlternativ
/plugin add https://github.com/davila7/claude-code-templates
Git CloneAlternativ
git clone https://github.com/davila7/claude-code-templates.git ~/.claude/skills/huggingface-tokenizers

Kopieren Sie diesen Befehl und fügen Sie ihn in Claude Code ein, um diese Fähigkeit zu installieren

GitHub Repository

davila7/claude-code-templates
Pfad: cli-tool/components/skills/ai-research/tokenization-huggingface-tokenizers
0
anthropicanthropic-claudeclaudeclaude-code

Verwandte Skills

quantizing-models-bitsandbytes

Andere

This skill quantizes LLMs to 8-bit or 4-bit precision using bitsandbytes, achieving 50-75% memory reduction with minimal accuracy loss. It's ideal for running larger models on limited GPU memory or accelerating inference, supporting formats like INT8, NF4, and FP4. The skill integrates with HuggingFace Transformers and enables QLoRA training and 8-bit optimizers.

Skill ansehen

weights-and-biases

Design

This skill integrates Weights & Biases for comprehensive ML experiment tracking and MLOps. It automatically logs metrics, visualizes training in real-time, and manages hyperparameter sweeps and model versions. Use it to compare runs, optimize models, and collaborate within team workspaces directly from your development environment.

Skill ansehen

fine-tuning-with-trl

Andere

This skill enables fine-tuning of LLMs using TRL's reinforcement learning methods including SFT, DPO, and PPO for RLHF and preference alignment. It's designed for aligning models with human feedback and works with HuggingFace Transformers. Use it when you need to implement RLHF, optimize with rewards, or train from human preferences.

Skill ansehen

qdrant-vector-search

Meta

The qdrant-vector-search skill provides a high-performance vector similarity search engine for building production RAG systems. It enables fast nearest neighbor search, hybrid search with filtering, and scalable vector storage powered by Rust. Use it when you need low-latency semantic search with horizontal scaling capabilities and full data control.

Skill ansehen