Zurück zu Fähigkeiten

blip-2-vision-language

davila7
Aktualisiert 16 days ago
501 Ansichten
18,478
1,685
18,478
Auf GitHub ansehen
DesignMultimodalVision-LanguageImage CaptioningVQAZero-Shot

Über

BLIP-2 ist ein Vision-Language-Framework, das einen eingefrorenen Bild-Encoder mit einem großen Sprachmodell für multimodale Aufgaben verbindet. Nutzen Sie es für Zero-Shot-Bildbeschriftung, visuelle Fragebeantwortung oder Bild-Text-Retrieval ohne aufgabenspezifisches Fine-Tuning. Es ist ideal für Entwickler, die ihren LLM-basierten Anwendungen modernstes visuelles Verständnis hinzufügen möchten.

Schnellinstallation

Claude Code

Empfohlen
Primär
npx skills add davila7/claude-code-templates -a claude-code
Plugin-BefehlAlternativ
/plugin add https://github.com/davila7/claude-code-templates
Git CloneAlternativ
git clone https://github.com/davila7/claude-code-templates.git ~/.claude/skills/blip-2-vision-language

Kopieren Sie diesen Befehl und fügen Sie ihn in Claude Code ein, um diese Fähigkeit zu installieren

GitHub Repository

davila7/claude-code-templates
Pfad: cli-tool/components/skills/ai-research/multimodal-blip-2
0
anthropicanthropic-claudeclaudeclaude-code

Verwandte Skills

stable-diffusion-image-generation

Meta

This skill enables text-to-image generation and image manipulation using Stable Diffusion via HuggingFace Diffusers. It supports image generation from prompts, image-to-image translation, inpainting, and custom pipeline creation. Developers should use it when building applications requiring AI-powered visual content generation or editing.

Skill ansehen

audiocraft-audio-generation

Meta

This Claude Skill provides text-to-music and text-to-audio generation using Meta's AudioCraft PyTorch library. It enables developers to generate music from descriptions, create sound effects, and perform melody-conditioned music generation. Key capabilities include using the MusicGen and AudioGen models for controllable, high-quality stereo audio output.

Skill ansehen

whisper

Andere

Whisper is OpenAI's multilingual speech recognition model for transcription and translation across 99 languages. It handles tasks like speech-to-text, podcast transcription, and processing noisy or multilingual audio. Developers should use it for robust, production-ready automatic speech recognition (ASR).

Skill ansehen

segment-anything-model

Meta

The segment-anything-model skill performs zero-shot image segmentation, allowing developers to isolate objects using prompts like points or bounding boxes, or to automatically generate all object masks. It's ideal for building annotation tools, generating training data, or processing images in new domains without task-specific training. Key capabilities include handling interactive prompts and providing strong out-of-the-box performance for various computer vision pipelines.

Skill ansehen