CLIP模型Skill clip

CLIP(对比语言-图像预训练模型)是OpenAI开发的一个多模态人工智能模型,专门用于连接视觉和语言信息。它能够执行零样本图像分类、图像-文本相似度计算、跨模态检索等任务,广泛应用于图像搜索、内容审核、视觉-语言任务等领域,无需额外训练。关键词:零样本图像分类、图像-文本匹配、内容审核、多模态AI、视觉语言模型。

计算机视觉 0 次安装 0 次浏览 更新于 3/21/2026

名称: clip 描述: OpenAI的模型连接视觉和语言。支持零样本图像分类、图像-文本匹配和跨模态检索。在400M图像-文本对上训练。用于图像搜索、内容审核或视觉-语言任务,无需微调。最适合通用图像理解。 版本: 1.0.0 作者: Orchestra Research 许可证: MIT 标签: [多模态, CLIP, 视觉-语言, 零样本, 图像分类, OpenAI, 图像搜索, 跨模态检索, 内容审核] 依赖: [transformers, torch, pillow]

CLIP - 对比语言-图像预训练

OpenAI的模型,从自然语言理解图像。

何时使用CLIP

使用当:

  • 零样本图像分类(无需训练数据)
  • 图像-文本相似度/匹配
  • 语义图像搜索
  • 内容审核(检测NSFW、暴力)
  • 视觉问答
  • 跨模态检索(图像→文本,文本→图像)

指标:

  • 25,300+ GitHub stars
  • 在400M图像-文本对上训练
  • 在ImageNet上匹配ResNet-50(零样本)
  • MIT许可证

使用替代方案代替:

  • BLIP-2: 更好的字幕生成
  • LLaVA: 视觉-语言聊天
  • Segment Anything: 图像分割

快速开始

安装

pip install git+https://github.com/openai/CLIP.git
pip install torch torchvision ftfy regex tqdm

零样本分类

import torch
import clip
from PIL import Image

# 加载模型
device = "cuda" if torch.cuda.is_available() else "cpu"
model, preprocess = clip.load("ViT-B/32", device=device)

# 加载图像
image = preprocess(Image.open("photo.jpg")).unsqueeze(0).to(device)

# 定义可能的标签
text = clip.tokenize(["a dog", "a cat", "a bird", "a car"]).to(device)

# 计算相似度
with torch.no_grad():
    image_features = model.encode_image(image)
    text_features = model.encode_text(text)

    # 余弦相似度
    logits_per_image, logits_per_text = model(image, text)
    probs = logits_per_image.softmax(dim=-1).cpu().numpy()

# 打印结果
labels = ["a dog", "a cat", "a bird", "a car"]
for label, prob in zip(labels, probs[0]):
    print(f"{label}: {prob:.2%}")

可用模型

# 模型(按大小排序)
models = [
    "RN50",           # ResNet-50
    "RN101",          # ResNet-101
    "ViT-B/32",       # Vision Transformer(推荐)
    "ViT-B/16",       # 更好质量,更慢
    "ViT-L/14",       # 最佳质量,最慢
]

model, preprocess = clip.load("ViT-B/32")
模型 参数 速度 质量
RN50 102M
ViT-B/32 151M 中等 更好
ViT-L/14 428M 最佳

图像-文本相似度

# 计算嵌入
image_features = model.encode_image(image)
text_features = model.encode_text(text)

# 归一化
image_features /= image_features.norm(dim=-1, keepdim=True)
text_features /= text_features.norm(dim=-1, keepdim=True)

# 余弦相似度
similarity = (image_features @ text_features.T).item()
print(f"相似度: {similarity:.4f}")

语义图像搜索

# 索引图像
image_paths = ["img1.jpg", "img2.jpg", "img3.jpg"]
image_embeddings = []

for img_path in image_paths:
    image = preprocess(Image.open(img_path)).unsqueeze(0).to(device)
    with torch.no_grad():
        embedding = model.encode_image(image)
        embedding /= embedding.norm(dim=-1, keepdim=True)
    image_embeddings.append(embedding)

image_embeddings = torch.cat(image_embeddings)

# 使用文本查询搜索
query = "a sunset over the ocean"
text_input = clip.tokenize([query]).to(device)
with torch.no_grad():
    text_embedding = model.encode_text(text_input)
    text_embedding /= text_embedding.norm(dim=-1, keepdim=True)

# 找到最相似的图像
similarities = (text_embedding @ image_embeddings.T).squeeze(0)
top_k = similarities.topk(3)

for idx, score in zip(top_k.indices, top_k.values):
    print(f"{image_paths[idx]}: {score:.3f}")

内容审核

# 定义类别
categories = [
    "safe for work",
    "not safe for work",
    "violent content",
    "graphic content"
]

text = clip.tokenize(categories).to(device)

# 检查图像
with torch.no_grad():
    logits_per_image, _ = model(image, text)
    probs = logits_per_image.softmax(dim=-1)

# 获取分类
max_idx = probs.argmax().item()
max_prob = probs[0, max_idx].item()

print(f"类别: {categories[max_idx]} ({max_prob:.2%})")

批量处理

# 处理多个图像
images = [preprocess(Image.open(f"img{i}.jpg")) for i in range(10)]
images = torch.stack(images).to(device)

with torch.no_grad():
    image_features = model.encode_image(images)
    image_features /= image_features.norm(dim=-1, keepdim=True)

# 批量文本
texts = ["a dog", "a cat", "a bird"]
text_tokens = clip.tokenize(texts).to(device)

with torch.no_grad():
    text_features = model.encode_text(text_tokens)
    text_features /= text_features.norm(dim=-1, keepdim=True)

# 相似度矩阵(10图像 × 3文本)
similarities = image_features @ text_features.T
print(similarities.shape)  # (10, 3)

与向量数据库集成

# 将CLIP嵌入存储到Chroma/FAISS
import chromadb

client = chromadb.Client()
collection = client.create_collection("image_embeddings")

# 添加图像嵌入
for img_path, embedding in zip(image_paths, image_embeddings):
    collection.add(
        embeddings=[embedding.cpu().numpy().tolist()],
        metadatas=[{"path": img_path}],
        ids=[img_path]
    )

# 使用文本查询
query = "a sunset"
text_embedding = model.encode_text(clip.tokenize([query]))
results = collection.query(
    query_embeddings=[text_embedding.cpu().numpy().tolist()],
    n_results=5
)

最佳实践

  1. 使用ViT-B/32用于大多数情况 - 良好平衡
  2. 归一化嵌入 - 余弦相似度必需
  3. 批量处理 - 更高效
  4. 缓存嵌入 - 重新计算昂贵
  5. 使用描述性标签 - 更好的零样本性能
  6. 推荐GPU - 10-50×更快
  7. 预处理图像 - 使用提供的预处理函数

性能

操作 CPU GPU (V100)
图像编码 ~200ms ~20ms
文本编码 ~50ms ~5ms
相似度计算 <1ms <1ms

限制

  1. 不适用于细粒度任务 - 最适合广泛类别
  2. 需要描述性文本 - 模糊标签表现差
  3. 基于网络数据有偏见 - 可能有数据集偏见
  4. 无边界框 - 仅整个图像
  5. 空间理解有限 - 位置/计数弱

资源