TOP AI APITOP AI API

按类型寻找AI

按照不同类型和场景,找到最适合您的AI模型

nomagick/qwen-14b-chat

Qwen-14B-Chat 是一个基于 Transformer 架构的大语言模型,通过海量数据(包括网络文本、书籍、代码等)进行预训练而成。

37次/$1
未知
5.4K+

lucataco/ollama-nemotron-70b

Ollama Nemotron 70b

25次/$1
未知
8.8K+

tomasmcm/juanako-7b-una

来源:fblgit/juanako-7b-UNA ✦ 量化版本:TheBloke/juanako-7B-UNA-AWQ ✦ juanako采用UNA(Uniform Neural Alignment)技术。这是一种尚未发表的训练技术,可简化Transformer层之间的对齐过程。

344次/$1
未知
39+

mikeei/dolphin-2.9-llama3-70b-gguf

海豚是无审查的。我已过滤数据集以去除对齐和偏见。这使得模型更加合规。

23次/$1
未知
73.3K+

tomasmcm/starling-lm-7b-alpha

来源:berkeley-nest/Starling-LM-7B-alpha ✦ 量化版本:TheBloke/Starling-LM-7B-alpha-AWQ ✦ 一个通过人工智能反馈强化学习(RLAIF)训练的开源大语言模型(LLM)

1020次/$1
未知
59.0K+

mikeei/dolphin-2.9-llama3-8b-gguf

海豚是无审查的。我已过滤数据集以去除对齐和偏见。这使得模型更加合规。

416次/$1
未知
6.1K+

lucataco/paligemma-3b-pt-224

PaliGemma 3B是谷歌推出的开源视觉语言模型(VLM),预训练阶段采用224*224输入图像尺寸及128个令牌的输入/输出文本序列。

1020次/$1
未知
1.3K+

tomasmcm/llama-3-8b-instruct-gradient-4194k

来源:gradientai/Llama-3-8B-Instruct-Gradient-4194k ✦ 量化版本:solidrust/Llama-3-8B-Instruct-Gradient-4194k-AWQ ✦ 将Llama-3 8B的上下文长度从8k扩展到4194K

价格未知
未知
142+

meta/meta-llama-guard-2-8b

基于Llama-3的审核与安全防护语言模型

1020次/$1
未知
733.3K+

zsxkib/qwen2-7b-instruct

Qwen 2:阿里巴巴云推出的70亿参数语言模型,专为聊天补全任务优化

476次/$1
未知
1.7K+

lucataco/florence-2-base

Florence-2:推进多样化视觉任务的统一表征

1000次/$1
未知
50.8K+

lucataco/hunyuandit-v1.1

一款强大的多分辨率扩散变换器,具备精细的中文理解能力

6次/$1
未知
1.1K+

google-deepmind/gemma2-9b-it

Google的Gemma2 9b指导模型

322次/$1
未知
21.2K+

google-deepmind/gemma2-27b-it

谷歌的Gemma2 27b指导模型

0次/$1
未知
12.8K+

lucataco/hermes-2-pro-llama-3-70b

Hermes 2 Pro是OpenHermes 2.5数据集的升级净化版本,同时也是我们内部开发的全新功能调用与JSON模式数据集。

价格未知
未知
342+

lucataco/qwen2-57b-a14b-instruct

阿里巴巴云推出的Qwen2 570亿参数语言模型,专为对话补全任务优化

71次/$1
未知
1.3K+

camb-ai/mars5-tts

MARS5,一款完全开源(可商用)的语音克隆/文本转语音工具,具有突破性的韵律表现和真实感。

价格未知
未知
655+

lucataco/prompt-guard-86m

由大型语言模型驱动的应用程序容易受到提示攻击,这类攻击通过精心设计的提示词蓄意破坏开发者对模型行为的预期控制。

价格未知
未知
25+

tomasmcm/dans-adventurouswinds-mk2-7b

来源:PocketDoc/Dans-AdventurousWinds-Mk2-7b ✦ 量化版本:TheBloke/Dans-AdventurousWinds-Mk2-7B-AWQ ✦ 该模型擅长创作基于文本的冒险游戏

1020次/$1
未知
130+

microsoft/phi-3-mini-128k-instruct

Phi-3-Mini-128K-Instruct 是一个拥有38亿参数的轻量级前沿开源模型,采用Phi-3数据集训练而成

23次/$1
未知
52.8K+

tomasmcm/llama-2-7b-chat-hf

来源:meta-llama/Llama-2-7b-chat-hf ✦ 量化版本:TheBloke/Llama-2-7B-Chat-AWQ ✦ 适用于助手式对话场景

526次/$1
未知
75+

lucataco/idefics-8b

Idefics2 是一个开源的多模态模型,能够接收任意序列的图像和文本输入,并生成文本输出。

400次/$1
未知
1.1K+

tomasmcm/anima-phi-neptune-mistral-7b

来源:Severian/ANIMA-Phi-Neptune-Mistral-7B ✦ 量化版本:TheBloke/ANIMA-Phi-Neptune-Mistral-7B-AWQ ✦ 仿生增强型大语言模型

333次/$1
未知
21+

bytedance/res-adapter

扩散模型的域一致性分辨率适配器:生成训练域外分辨率的连贯图像

14次/$1
未知
1.4K+

leclem/seine-transition

使用SEINE模型生成从一张图像过渡到另一张图像的视频

5次/$1
未知
2.3K+

google-deepmind/gemma-2-2b

Google 的 Gemma2 2B

1754次/$1
未知
34.0K+

tomasmcm/nexusraven-13b

来源:Nexusflow/NexusRaven-13B ✦ 量化版本:TheBloke/NexusRaven-13B-AWQ ✦ 超越开源函数调用大语言模型的现有技术水准

38次/$1
未知
54+

google-deepmind/gemma-2-2b-it

Gemma2 2b 谷歌指令调优变体

333次/$1
未知
16.2K+

cjwbw/animagine-xl-3.1

动漫主题的文本到图像稳定扩散模型

256次/$1
未知
4.4M+

nicknaskida/incredibly-fast-whisper

whisper-large-v3,速度惊人,支持说话人日志功能,由Hugging Face Transformers驱动!🤗

价格未知
未知
164+

fofr/flux-dev-layers

探索当您更改模型中各层强度时Flux Dev的响应情况。请参阅readme了解如何选择各层的示例。

14次/$1
未知
8.5K+

aleksanderobuchowski/bielik-11b-v2.3-instruct

Bielik-11B-v2.3-Instruct是由SpeakLeash和Cyfronet开发的拥有110亿参数的生成式文本模型。该模型是Bielik-11B-v2.0-Instruct、Bielik-11B-v2.1-Instruct和Bielik-11B-v2.2-Instruct三个模型的线性合并版本。

140次/$1
未知
1.2K+

sakemin/musicgen-fine-tuner

微调MusicGen的小型、中型和旋律模型。同时提供立体声模型。

12次/$1
未知
7.4K+

lucataco/modernbert-base

ModernBERT-base 是一种现代化的仅双向编码器 Transformer 模型(BERT 风格),基于 2 万亿个英语和代码数据标记进行预训练。

价格未知
未知
72+

wglint/3_rv

稳定扩散2.1 - 真实视觉5.1 - 变分自编码器

58次/$1
未知
2.3K+

wglint/4_sdxl

稳定扩散XL - 精炼器

16次/$1
未知
125+

tomasmcm/prometheus-13b-v1.0

来源:kaist-ai/prometheus-13b-v1.0 ✦ 量化版本:TheBloke/prometheus-13B-v1.0-AWQ ✦ 在评估LLMs和RLHF奖励模型时可作为GPT-4的替代方案

204次/$1
未知
54.0K+

tomasmcm/whiterabbitneo-13b

来源:WhiteRabbitNeo/WhiteRabbitNeo-13B-v1 ✦ TheBloke/WhiteRabbitNeo-13B-AWQ ✦ WhiteRabbitNeo是一个可用于攻防网络安全的模型系列

7次/$1
未知
116+

lucataco/modernbert-large

ModernBERT-large 是一款现代化的仅含双向编码器的Transformer模型(BERT风格),基于2万亿个英语及代码数据标记进行预训练。

价格未知
未知
77+

nousresearch/hermes-2-theta-llama-8b

Hermes-2 Θ(Theta)是由Nous Research与MergeKit背后的团队Arcee的Charles Goddard合作发布的首个实验性融合模型。

5714次/$1
未知
29.9K+

meta/llama-guard-3-11b-vision

一个Llama-3.2-11B预训练模型,经过微调用于内容安全分类

476次/$1
未知
299+

meta/llama-guard-3-8b

一个Llama-3.1-8B预训练模型,经过微调用于内容安全分类

1020次/$1
未知
31.2K+

nomagick/qwen-vl-chat

Qwen-VL-Chat(但采用原始ChatML提示接口并支持流式传输)

192次/$1
未知
1.1K+

lucataco/ollama-llama3.2-vision-90b

Ollama Llama 3.2 Vision 90B

71次/$1
未知
2.3K+

tomasmcm/zephyr-7b-beta

来源:HuggingFaceH4/zephyr-7b-beta ✦ 量化版本:TheBloke/zephyr-7B-beta-AWQ ✦ Zephyr是一个经过训练、旨在成为有用助手的系列语言模型。Zephyr-7B-β是该系列中的第二个模型

588次/$1
未知
188.8K+
加载中...