按类型寻找AI
按照不同类型和场景,找到最适合您的AI模型
daanelson/motion_diffusion_model
基于文本提示生成人体运动视频的扩散模型
elleo/uk-petition-generator
生成适合提交给英国政府的请愿书
camenduru/zephyr-orpo-141b-a35b-v0.1
Mixtral 8x22b v0.1 Zephyr Orpo 141b A35b v0.1
cudanexus/debvc
基于示例的深度视频着色技术 简而言之,该项目旨在为老照片和胶片素材进行着色修复。我们稍后将深入细节,但首先让我们欣赏一些精美的图片和视频!
crdbello/cblabs
xl
nomagick/qwen-14b-chat
Qwen-14B-Chat 是一个基于 Transformer 架构的大语言模型,通过海量数据(包括网络文本、书籍、代码等)进行预训练而成。
nomagick/chatglm3-6b
一个60亿参数的开源双语对话大语言模型
nomagick/chatglm3-6b-32k
一个60亿参数的开源双语对话大语言模型(针对8k+上下文优化)
tomasmcm/zephyr-7b-beta
来源:HuggingFaceH4/zephyr-7b-beta ✦ 量化版本:TheBloke/zephyr-7B-beta-AWQ ✦ Zephyr是一个经过训练、旨在成为有用助手的系列语言模型。Zephyr-7B-β是该系列中的第二个模型
tomasmcm/synthia-13b-v1.2
来源:migtissera/Synthia-13B-v1.2 ✦ 量化版本:TheBloke/Synthia-13B-v1.2-AWQ ✦ SynthIA(合成智能代理)是基于Orca风格数据集训练的LLama-2-13B模型
google-deepmind/gemma-2-2b
Google 的 Gemma2 2B
lucataco/ollama-nemotron-70b
Ollama Nemotron 70b
lucataco/prompt-guard-86m
由大型语言模型驱动的应用程序容易受到提示攻击,这类攻击通过精心设计的提示词蓄意破坏开发者对模型行为的预期控制。
camb-ai/mars5-tts
MARS5,一款完全开源(可商用)的语音克隆/文本转语音工具,具有突破性的韵律表现和真实感。
lucataco/qwen2-57b-a14b-instruct
阿里巴巴云推出的Qwen2 570亿参数语言模型,专为对话补全任务优化
tomasmcm/nexusraven-13b
来源:Nexusflow/NexusRaven-13B ✦ 量化版本:TheBloke/NexusRaven-13B-AWQ ✦ 超越开源函数调用大语言模型的现有技术水准
nomagick/qwen-vl-chat
Qwen-VL-Chat(但采用原始ChatML提示接口并支持流式传输)
vetkastar/python
运行任何 Python 代码
lucataco/hermes-2-pro-llama-3-70b
Hermes 2 Pro是OpenHermes 2.5数据集的升级净化版本,同时也是我们内部开发的全新功能调用与JSON模式数据集。
google-deepmind/gemma2-27b-it
谷歌的Gemma2 27b指导模型
google-deepmind/gemma2-9b-it
Google的Gemma2 9b指导模型
google-deepmind/gemma-2-2b-it
Gemma2 2b 谷歌指令调优变体
tomasmcm/anima-phi-neptune-mistral-7b
来源:Severian/ANIMA-Phi-Neptune-Mistral-7B ✦ 量化版本:TheBloke/ANIMA-Phi-Neptune-Mistral-7B-AWQ ✦ 仿生增强型大语言模型
nicknaskida/incredibly-fast-whisper
whisper-large-v3,速度惊人,支持说话人日志功能,由Hugging Face Transformers驱动!🤗
nousresearch/hermes-2-theta-llama-8b
Hermes-2 Θ(Theta)是由Nous Research与MergeKit背后的团队Arcee的Charles Goddard合作发布的首个实验性融合模型。
tomasmcm/llama-2-7b-chat-hf
来源:meta-llama/Llama-2-7b-chat-hf ✦ 量化版本:TheBloke/Llama-2-7B-Chat-AWQ ✦ 适用于助手式对话场景
tomasmcm/dans-adventurouswinds-mk2-7b
来源:PocketDoc/Dans-AdventurousWinds-Mk2-7b ✦ 量化版本:TheBloke/Dans-AdventurousWinds-Mk2-7B-AWQ ✦ 该模型擅长创作基于文本的冒险游戏
lucataco/hunyuandit-v1.1
一款强大的多分辨率扩散变换器,具备精细的中文理解能力
fofr/flux-dev-layers
探索当您更改模型中各层强度时Flux Dev的响应情况。请参阅readme了解如何选择各层的示例。
lucataco/florence-2-base
Florence-2:推进多样化视觉任务的统一表征
zsxkib/qwen2-7b-instruct
Qwen 2:阿里巴巴云推出的70亿参数语言模型,专为聊天补全任务优化
tomasmcm/llama-3-8b-instruct-gradient-4194k
来源:gradientai/Llama-3-8B-Instruct-Gradient-4194k ✦ 量化版本:solidrust/Llama-3-8B-Instruct-Gradient-4194k-AWQ ✦ 将Llama-3 8B的上下文长度从8k扩展到4194K
meta/llama-guard-3-11b-vision
一个Llama-3.2-11B预训练模型,经过微调用于内容安全分类
lucataco/ollama-llama3.3-70b
Ollama Llama 3.3 70B
wglint/3_rv
稳定扩散2.1 - 真实视觉5.1 - 变分自编码器
lucataco/ollama-llama3.2-vision-11b
Ollama Llama 3.2 Vision 11B
wglint/4_sdxl
稳定扩散XL - 精炼器
lucataco/ollama-llama3.2-vision-90b
Ollama Llama 3.2 Vision 90B
meta/llama-guard-3-8b
一个Llama-3.1-8B预训练模型,经过微调用于内容安全分类
sakemin/musicgen-fine-tuner
微调MusicGen的小型、中型和旋律模型。同时提供立体声模型。
tomasmcm/whiterabbitneo-13b
来源:WhiteRabbitNeo/WhiteRabbitNeo-13B-v1 ✦ TheBloke/WhiteRabbitNeo-13B-AWQ ✦ WhiteRabbitNeo是一个可用于攻防网络安全的模型系列
lucataco/bge-m3
BGE-M3是首个支持多检索模式、多语言和多粒度检索的嵌入模型。
tomasmcm/prometheus-13b-v1.0
来源:kaist-ai/prometheus-13b-v1.0 ✦ 量化版本:TheBloke/prometheus-13B-v1.0-AWQ ✦ 在评估LLMs和RLHF奖励模型时可作为GPT-4的替代方案
aleksanderobuchowski/bielik-11b-v2.3-instruct
Bielik-11B-v2.3-Instruct是由SpeakLeash和Cyfronet开发的拥有110亿参数的生成式文本模型。该模型是Bielik-11B-v2.0-Instruct、Bielik-11B-v2.1-Instruct和Bielik-11B-v2.2-Instruct三个模型的线性合并版本。
lucataco/modernbert-large
ModernBERT-large 是一款现代化的仅含双向编码器的Transformer模型(BERT风格),基于2万亿个英语及代码数据标记进行预训练。