按类型寻找AI
按照不同类型和场景,找到最适合您的AI模型
nomagick/qwen-14b-chat
Qwen-14B-Chat 是一个基于 Transformer 架构的大语言模型,通过海量数据(包括网络文本、书籍、代码等)进行预训练而成。
lucataco/ollama-nemotron-70b
Ollama Nemotron 70b
tomasmcm/juanako-7b-una
来源:fblgit/juanako-7b-UNA ✦ 量化版本:TheBloke/juanako-7B-UNA-AWQ ✦ juanako采用UNA(Uniform Neural Alignment)技术。这是一种尚未发表的训练技术,可简化Transformer层之间的对齐过程。
mikeei/dolphin-2.9-llama3-70b-gguf
海豚是无审查的。我已过滤数据集以去除对齐和偏见。这使得模型更加合规。
tomasmcm/starling-lm-7b-alpha
来源:berkeley-nest/Starling-LM-7B-alpha ✦ 量化版本:TheBloke/Starling-LM-7B-alpha-AWQ ✦ 一个通过人工智能反馈强化学习(RLAIF)训练的开源大语言模型(LLM)
mikeei/dolphin-2.9-llama3-8b-gguf
海豚是无审查的。我已过滤数据集以去除对齐和偏见。这使得模型更加合规。
lucataco/paligemma-3b-pt-224
PaliGemma 3B是谷歌推出的开源视觉语言模型(VLM),预训练阶段采用224*224输入图像尺寸及128个令牌的输入/输出文本序列。
tomasmcm/llama-3-8b-instruct-gradient-4194k
来源:gradientai/Llama-3-8B-Instruct-Gradient-4194k ✦ 量化版本:solidrust/Llama-3-8B-Instruct-Gradient-4194k-AWQ ✦ 将Llama-3 8B的上下文长度从8k扩展到4194K
meta/meta-llama-guard-2-8b
基于Llama-3的审核与安全防护语言模型
zsxkib/qwen2-7b-instruct
Qwen 2:阿里巴巴云推出的70亿参数语言模型,专为聊天补全任务优化
lucataco/florence-2-base
Florence-2:推进多样化视觉任务的统一表征
lucataco/hunyuandit-v1.1
一款强大的多分辨率扩散变换器,具备精细的中文理解能力
google-deepmind/gemma2-9b-it
Google的Gemma2 9b指导模型
google-deepmind/gemma2-27b-it
谷歌的Gemma2 27b指导模型
lucataco/hermes-2-pro-llama-3-70b
Hermes 2 Pro是OpenHermes 2.5数据集的升级净化版本,同时也是我们内部开发的全新功能调用与JSON模式数据集。
lucataco/qwen2-57b-a14b-instruct
阿里巴巴云推出的Qwen2 570亿参数语言模型,专为对话补全任务优化
camb-ai/mars5-tts
MARS5,一款完全开源(可商用)的语音克隆/文本转语音工具,具有突破性的韵律表现和真实感。
lucataco/prompt-guard-86m
由大型语言模型驱动的应用程序容易受到提示攻击,这类攻击通过精心设计的提示词蓄意破坏开发者对模型行为的预期控制。
tomasmcm/dans-adventurouswinds-mk2-7b
来源:PocketDoc/Dans-AdventurousWinds-Mk2-7b ✦ 量化版本:TheBloke/Dans-AdventurousWinds-Mk2-7B-AWQ ✦ 该模型擅长创作基于文本的冒险游戏
microsoft/phi-3-mini-128k-instruct
Phi-3-Mini-128K-Instruct 是一个拥有38亿参数的轻量级前沿开源模型,采用Phi-3数据集训练而成
tomasmcm/llama-2-7b-chat-hf
来源:meta-llama/Llama-2-7b-chat-hf ✦ 量化版本:TheBloke/Llama-2-7B-Chat-AWQ ✦ 适用于助手式对话场景
lucataco/idefics-8b
Idefics2 是一个开源的多模态模型,能够接收任意序列的图像和文本输入,并生成文本输出。
tomasmcm/anima-phi-neptune-mistral-7b
来源:Severian/ANIMA-Phi-Neptune-Mistral-7B ✦ 量化版本:TheBloke/ANIMA-Phi-Neptune-Mistral-7B-AWQ ✦ 仿生增强型大语言模型
bytedance/res-adapter
扩散模型的域一致性分辨率适配器:生成训练域外分辨率的连贯图像
leclem/seine-transition
使用SEINE模型生成从一张图像过渡到另一张图像的视频
google-deepmind/gemma-2-2b
Google 的 Gemma2 2B
tomasmcm/nexusraven-13b
来源:Nexusflow/NexusRaven-13B ✦ 量化版本:TheBloke/NexusRaven-13B-AWQ ✦ 超越开源函数调用大语言模型的现有技术水准
google-deepmind/gemma-2-2b-it
Gemma2 2b 谷歌指令调优变体
cjwbw/animagine-xl-3.1
动漫主题的文本到图像稳定扩散模型
nicknaskida/incredibly-fast-whisper
whisper-large-v3,速度惊人,支持说话人日志功能,由Hugging Face Transformers驱动!🤗
fofr/flux-dev-layers
探索当您更改模型中各层强度时Flux Dev的响应情况。请参阅readme了解如何选择各层的示例。
aleksanderobuchowski/bielik-11b-v2.3-instruct
Bielik-11B-v2.3-Instruct是由SpeakLeash和Cyfronet开发的拥有110亿参数的生成式文本模型。该模型是Bielik-11B-v2.0-Instruct、Bielik-11B-v2.1-Instruct和Bielik-11B-v2.2-Instruct三个模型的线性合并版本。
sakemin/musicgen-fine-tuner
微调MusicGen的小型、中型和旋律模型。同时提供立体声模型。
lucataco/modernbert-base
ModernBERT-base 是一种现代化的仅双向编码器 Transformer 模型(BERT 风格),基于 2 万亿个英语和代码数据标记进行预训练。
wglint/3_rv
稳定扩散2.1 - 真实视觉5.1 - 变分自编码器
wglint/4_sdxl
稳定扩散XL - 精炼器
tomasmcm/prometheus-13b-v1.0
来源:kaist-ai/prometheus-13b-v1.0 ✦ 量化版本:TheBloke/prometheus-13B-v1.0-AWQ ✦ 在评估LLMs和RLHF奖励模型时可作为GPT-4的替代方案
tomasmcm/whiterabbitneo-13b
来源:WhiteRabbitNeo/WhiteRabbitNeo-13B-v1 ✦ TheBloke/WhiteRabbitNeo-13B-AWQ ✦ WhiteRabbitNeo是一个可用于攻防网络安全的模型系列
lucataco/modernbert-large
ModernBERT-large 是一款现代化的仅含双向编码器的Transformer模型(BERT风格),基于2万亿个英语及代码数据标记进行预训练。
nousresearch/hermes-2-theta-llama-8b
Hermes-2 Θ(Theta)是由Nous Research与MergeKit背后的团队Arcee的Charles Goddard合作发布的首个实验性融合模型。
meta/llama-guard-3-11b-vision
一个Llama-3.2-11B预训练模型,经过微调用于内容安全分类
meta/llama-guard-3-8b
一个Llama-3.1-8B预训练模型,经过微调用于内容安全分类
nomagick/qwen-vl-chat
Qwen-VL-Chat(但采用原始ChatML提示接口并支持流式传输)
lucataco/ollama-llama3.2-vision-90b
Ollama Llama 3.2 Vision 90B
tomasmcm/zephyr-7b-beta
来源:HuggingFaceH4/zephyr-7b-beta ✦ 量化版本:TheBloke/zephyr-7B-beta-AWQ ✦ Zephyr是一个经过训练、旨在成为有用助手的系列语言模型。Zephyr-7B-β是该系列中的第二个模型