接口类型
天翼云推理服务提供Chat和Image两类接口。
功能分类 | 支持模型类别 | 请求路径后缀 | 请求完整路径 | 功能描述 |
---|---|---|---|---|
chat | 文本生成、图像理解 | /chat/completions | https://wishub-x1.ctyun.cn/v1/chat/completions | 针对描述会话的消息列表,模型将返回响应。 |
image | 文本生图 | /images/generations | https://wishub-x1.ctyun.cn/v1/images/generations | 基于提示创建图像。 |
模型列表
平台提供了以下大模型API能力。
模型名称 | 模型ID | 模型简介 | 模型类型 |
---|---|---|---|
DeepSeek-R1-昇腾版 | 4bd107bff85941239e27b1509eccfe98 | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1模型在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 | 文本生成 |
DeepSeek-R1-英伟达版 | 7ba7726dad4c4ea4ab7f39c7741aea68 | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1 模型在多个 NLP 基准测试中表现出色,具备较强的泛化能力和适应性。 | 文本生成 |
DeepSeek-V3-昇腾版 | 9dc913a037774fc0b248376905c85da5 | DeepSeek-V3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeek-V2模型的优势,并在性能、效率和功能上进行了显著提升。 | 文本生成 |
DeepSeek-R1-Distill-Llama-70B | 515fdba33cc84aa799bbd44b6e00660d | DeepSeek-R1-Distill-Llama-70B是基于Llama架构并经过强化学习和蒸馏优化开发的高性能语言模型。该模型融合了DeepSeek-R1的先进知识蒸馏技术与Llama-70B模型的架构优势。通过知识蒸馏,在保持较小参数规模的同时,具备强大的语言理解和生成能力。 | 文本生成 |
DeepSeek-R1-Distill-Qwen-32B | b383c1eecf2c4b30b4bcca7f019cf90d | DeepSeek-R1-Distill-Qwen-32B是通过知识蒸馏技术从DeepSeek-R1模型中提炼出来的小型语言模型。它继承了DeepSeek-R1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 | 文本生成 |
DeepSeek-R1-Distill-Qwen-1.5B | 672ac7749762493cbbffd63762b2881e | DeepSeek-R1-Distill-Qwen-1.5B是通过知识蒸馏技术从DeepSeek-R1模型中提炼出来的小型语言模型。它继承了DeepSeek-R1的推理能力,专注于数学和逻辑推理任务,但体积更小,适合资源受限的环境。 | 文本生成 |
TeleChat-12B | fdc31b36028043c48b15131885b148ce | 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,TeleChat-12B模型基座采用3万亿 Tokens中英文高质量语料进行训练。TeleChat-12B-bot在模型结构、训练数据、训练方法等方面进行了改进,在通用问答和知识类、代码类、数学类榜单上相比TeleChat-7B-bot均有大幅提升。 | 文本生成 |
Baichuan2-Turbo | 43ac83747cb34730a00b7cfe590c89ac | Baichuan-Turbo系列模型是百川智能推出的大语言模型,采用搜索增强技术实现大模型与领域知识、全网知识的全面链接。 | 文本生成 |
Qwen2.5-72B-Instruct | d9df728b30a346afb74d2099b6c209aa | Qwen2.5系列发布了许多基本语言模型和指令调整语言模型,参数范围从0.5到720亿个参数不等。Qwen2.5-72B-Instruct模型是Qwen2.5系列大型语言模型指令调整版本。 | 文本生成 |
Qwen2.5-Math-7B-Instruct | ea056b1eedfc479198b49e2ef156e2aa | Qwen2.5-Math系列是数学专项大语言模型Qwen2-Math的升级版。系列包括1.5B、7B、72B三种参数的基础模型和指令微调模型以及数学奖励模型Qwen2.5-Math-RM-72B,Qwen2.5-Math-7B-Instruct的性能与Qwen2-Math-72B-Instruct相当。 | 文本生成 |
Qwen2-72B-Instruct | 2f05789705a64606a552fc2b30326bba | Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。这是指令调整的 72B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 | 文本生成 |
Qwen2-7B-Instruct | 0e97efbf3aa042ebbaf0b2d358403b94 | Qwen2-7B-Instruct是 Qwen2大型语言模型系列中覆盖70亿参数的指令调优语言模型,支持高达 131,072 个令牌的上下文长度,能够处理大量输入。 | 文本生成 |
Qwen1.5-72B-Chat | 9d140d415f11414aa05c8888e267a896 | 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.5-72B-Chat版本。 | 文本生成 |
Qwen1.5-32B-Chat | 12d5a37bf1ed4bf9b1cb8e446cfa60b3 | Qwen1.5-32B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。这是Qwen1.5-32B-Chat版本。 | 文本生成 |
Qwen1.5-14B-Chat | acfe01f00b0c4ff49c29c6c77b771b60 | 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.5-14B-Chat版本。 | 文本生成 |
Qwen1.5-7B-Chat | bfc0bdbf8b394c139a734235b1e6f887 | 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于 Transformer 的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.5-7B-Chat版本。 | 文本生成 |
Qwen-VL-Chat | e8c39004ff804ca699d47b9254039db8 | Qwen-VL-Chat模型是在阿里云研发的大规模视觉语言模型 Qwen-VL 系列的基础上,使用对齐机制打造的视觉AI助手,该模型有更优秀的中文指令跟随,支持更灵活的交互方式,包括多图、多轮问答、创作等能力。 | 图像理解 |
Llama3-70B-Instruct | 6192ed0cb6334302a2c32735dbbb6ce3 | Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama3-70B-Instruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 | 文本生成 |
Llama3-8B-Instruct | bda59c34e4424598bbd5930eba713fbf | Meta 开发并发布了 Meta Llama 3 系列大型语言模型 (LLM),包含 8B 和 70B 两种参数大小,Llama3-8B-Instruct 是经过指令微调的版本,针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 | 文本生成 |
Llama2-70B-Chat | bafbc7785d50466c89819da43964332b | Llama 2 是预训练和微调的生成文本模型的集合,规模从 70 亿到 700 亿个参数不等。这是 70B 微调模型的存储库,针对对话用例进行了优化。 | 文本生成 |
Llama2-13B-Chat | 96dc8f33609d4ce6af3ff55ea377831a | Llama2是预先训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。这是13B微调模型的存储库,针对对话用例进行了优化。 | 文本生成 |
StableDiffusion-V2.1 | 40f9ae16e840417289ad2951f5b2c88f | StableDiffusion-V2.1是由 Stability AI 公司推出的基于深度学习的文生图模型,它能够根据文本描述生成详细的图像,同时也可以应用于其他任务,例如图生图,生成简短视频等。 | 文本生图 |
Gemma2-9B-IT | 4dae2b9727db46b7b86e84e8ae6530a9 | Gemma2-9B-IT是Google最新发布的具有90亿参数的开源大型语言模型的指令调优版本。模型在大量文本数据上进行预训练,并且在性能上相较于前一代有了显著提升。该版本的性能在同类产品中也处于领先地位,超过了Llama3-8B和其他同规模的开源模型。 | 文本生成 |
InternLM2-Chat-7B | 50beebff68b34803bd71d380e49078f5 | InternLM2-Chat-7B 是书生·浦语大模型系列中开源的 70 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 | 文本生成 |
ChatGLM3-6B | 7450fa195778420393542c7fa13c6640 | ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了更强大的基础模型、更完整的功能支持、更全面的开源序列几大特性。 | 文本生成 |
DeepSeek-V2-Lite-Chat | 0855b510473e4ec3a029569853f64974 | DeepSeek-V2-Lite-Chat是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数,使用5.7T令牌从头开始训练,其特点是同时具备经济的训练和高效的推理。 | 文本生成 |
TeleChat2-35B | 1ff5875ea1034ce0a2cf5bf05e6c34c6 | 星辰语义大模型TeleChat2-35B是由中国电信人工智能研究院研发训练的大语言模型,该模型完全基于国产算力训练,支持工具调用功能。在Function Call方面,针对性进行了效果优化,在相关榜单评测上相比同尺寸模型均有较好表现。 | 文本生成 |
TeleChat-7B | 6d2914928db84d2bb3c6f5fa02d6d7ac | 星辰语义大模型TeleChat是由中电信人工智能科技有限公司研发训练的大语言模型,7B模型基座采用1.5万亿 Tokens中英文高质量语料进行训练。 | 文本生成 |
GLM4-9B-Chat | c78c1e258d5741119e7f1becfe230744 | GLM4-9B-Chat是智谱AI推出的GLM4系列中的开源聊天版本,在语义、数学、推理、代码和知识等多方面的数据集测评中,GLM-4-9B-Chat模型表现出了超越Llama-3-8B的卓越性能。 | 文本生成 |
Llama3.2-3B-Instruct | f7d0baa95fd2480280214bfe505b0e2e | Meta Llama3.2多语言大型语言模型(LLMs)系列是一系列预训练及指令微调的生成模型,包含1B和3B参数规模。Llama3.2指令微调的纯文本模型专门针对多语言对话应用场景进行了优化,包括代理检索和摘要任务。它们在通用行业基准测试中超越了许多可用的开源和闭源聊天模型。这是Llama3.2-3B-Instruct版本。 | 文本生成 |
Llama3.1-8B-Instruct | b075554376434939832f8b37a51fdd9f | Llama3.1-8B-Instruct是Meta推出的多语言大型语言模型,基于优化的transformer架构,覆盖80亿参数。Llama3.1指令调整后的纯文本模型针对多语言对话使用案例进行了优化,在常见的行业基准上优于许多可用的开源和封闭式聊天模型。 | 文本生成 |
InternVL-Chat-V1.5 | f64207d322b745e8a0d575a105c503ee | InternVL-Chat-V1.5是一种开源多模态大型语言模型(MLLM),用于弥合开源和专有商业模型在多模态理解方面的能力差距。 | 图像理解 |
MedSAM | 6b0dc45ddeee4af99e3068c94a283fa8 | MedSAM是为通用医学图像分割设计的首个基础模型。利用包含超过一百万张图像的精心策划的数据集的力量,MedSAM不仅优于现有的最先进的分割基础模型,而且表现出与专业模型相当甚至更好的性能。 | 图像分割 |
InternLM2-Chat-20B | 9abb1d54bd39443b95337692beed2e8c | InternLM2-Chat-20B 是书生·浦语大模型系列中开源的200 亿参数库模型和针对实际场景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 | 文本生成 |
Qwen2-1.5B-Instruct | 88ad4fb38d284af690baf2285fd2c9ff | Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。这是指令调整的 1.5B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 | 文本生成 |
CodeLlama-34B-Instruct | e288ec1cb67548c48cc182560ebc9537 | CodeLlama-34B-Instruct模型是建立在Llama2之上的大型语言模型,针对生成和讨论代码进行了指令微调,规模为340亿个参数,该模型使开发人员的工作流程更快、更高效,并降低学习编码的人的入门门槛。 | 文本生成 |
Qwen-7B-Chat | fc23987da1344a8f8bdf1274e832f193 | 通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen-7B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。 | 文本生成 |
Llama3-8B-Chinese-Chat | f4a204d261d6449db9bd29956043ee63 | Llama3-8B-Chinese-Chat是基于Meta-Llama-3-8B-Instruct模型微调的中文聊天模型,其使用ORPO进行了中文微调, 显著减少了“中文问题英文回复”的现象,以及中英文混合的问题,并且减少了答案中表情符号的数量,使回复更加正式,增强了中文能力。 | 文本生成 |
Llama3-70B | 10b04185a8804771ab89ae3015da2821 | Llama3-70B是Meta开发并发布的Llama3系列中规模为700亿参数的大型语言模型(LLM),指令调优模型针对对话用例进行了优化,在常见的行业基准测试中优于许多可用的开源聊天模型。 | 文本生成 |
ChatGLM2-6B | 98c80bbd4b254af687f119a6c8787156 | ChatGLM2-6B智谱AI与清华KEG实验室发布的中英双语对话模型,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B引入了新特征:更强大的性能、更长的上下文、更高效的推理、更开放的协议,在数理逻辑、知识推理、长文档理解上均有支持,在MMLU、CEval等数据集上相比初代有大幅的性能提升。 | 文本生成 |
Qwen1.5-72B | e182979645b1408f987eb3b1910214af | Qwen1.5模型是通义千问推出的基于Transformer架构的开源语言模型系列1.5版本,包括0.5B、1.8B、4B、7B、14B、32B、72B和110B共计8个不同规模的Base和Chat模型,以及一个MoE模型,并同步放出了各尺寸模型对应的量化模型。 | 文本生成 |
OpenClip | 2c3f7c5fa690479289a73e8bae778b3e | OpenClip是一个开源的多模态模型,它通过对比学习,将图像和文本映射到同一个向量空间,能够同时理解图像和文本,从而实现高效的跨模态检索、视觉问答等功能。 | 向量模型 |
Llama2-Chinese-13B-Chat | 443d2f706fe3405ca30b182aa6cbf7ce | Llama2-Chinese-13B-Chat模型是Llama 2 对话中文微调参数模型,基于 Meta 发布的 Llama2 Chat 开源模型来进行微调。由于 Llama 2 本身的中文对齐比较弱,开发者采用了中文指令集来进行微调,使其具备较强的中文对话能力。目前这个中文微调参数模型总共发布了 7B,13B两种参数大小。 | 文本生成 |
Chinese-Alpaca-2-13B | a36d0399d5084b22a217c3280ffa5483 | Chinese-Alpaca-2-13B模型是基于 Meta 开源的 LLaMA 模型系列进行训练和优化的中文大模型。它在原版 LLaMA 模型的基础上扩充了中文词表,并使用大规模中文数据进行增量预训练,进一步提高了中文的基本语义理解。与第一代模型相比,性能有了显着提高。相关型号支持 4K 上下文,并且可以使用 NTK 方法扩展到 18K+。 | 文本生成 |
Qwen-14B-Chat | 18ce103e75644397b3e73cc514e36930 | 通义千问-14B(Qwen-14B) 是阿里云研发的通义千问大模型系列的140亿参数规模的模型。Qwen-14B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen-14B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen-14B-Chat。 | 文本生成 |
Llama2-7B-Chat | e30f90ca899a4b1a9c25c0949edd64fc | Llama2-7B-Chat是Meta AI开发的大型语言模型Llama2家族中最小的聊天模型。该模型有70亿个参数,并在来自公开来源的2万亿token数据上进行了预训练。它已经在超过一百万个人工注释的指令数据集上进行了微调。 | 文本生成 |
Qwen-7B | 37fb42500a9d47ddb270e4f7133e2c03 | 通义千问-7B(Qwen-7B)是阿里云研发的通义千问大模型系列的70亿参数规模的模型。Qwen-7B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。 | 文本生成 |
Qwen-14B | 5b5d7886afbc40cc94ddd2abd3c1c97b | 通义千问-14B(Qwen-14B)是阿里云研发的通义千问大模型系列的140亿参数规模的模型。Qwen-14B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。 | 文本生成 |
Llama2-7B | 7edf2d6ebc4d4746a380be83458f7c97 | Llama2-7B是Meta AI在2023年发布的7B规模版本的大型语言模型,旨在提供高质量的自然语言处理能力。该模型在预训练数据方面表现出色,使用了2万亿个标记进行训练,上下文长度扩展到了4096,这比Llama1的2048有所增加,使得模型能够理解和生成更长的文本。 | 文本生成 |
Llama2-13B | 3b54670ca35e4d75ad82d95e360e5956 | Llama2-13B是Meta AI在2023年发布的13B规模版本的大型语言模型,旨在提供高质量的自然语言处理能力。该模型在预训练数据方面表现出色,使用了2万亿个标记进行训练,上下文长度扩展到了4096,这比Llama1的2048有所增加,使得模型能够理解和生成更长的文本。 | 文本生成 |
Llama2-70B | 0b8f3b2642de41ae9fde7991d537e087 | Llama2-70B是Meta AI在2023年发布的70B规模版本的大型语言模型,旨在提供高质量的自然语言处理能力。该模型在预训练数据方面表现出色,使用了2万亿个标记进行训练,上下文长度扩展到了4096,这比Llama1的2048有所增加,使得模型能够理解和生成更长的文本。 | 文本生成 |
ChineseClip | 0d472512288c49d1babdc335ca1390de | ChineseClip是一款基于大规模中文图像文本对数据集实现的多模态预训练模型,是对原始CLIP模型的中文适配和扩展。该模型能够执行跨模态检索,还可以作为零镜头图像分类、开放域对象检测等视觉任务的视觉支柱。 | 图像理解 |
Blip2 | abfe360567c74579a86e476addd6740d | Blip2是由Salesforce Research提出的最新一代多模态模型,它在图文交互场景下取得了领先的结果。Blip2模型的核心在于它通过自举学习的方式,实现了对视觉和语言信息的统一理解和生成。 | 图像理解 |
Qwen-72B-Chat | 57e13dafabf340148dc7e860da136b85 | 通义千问-72B(Qwen-72B)是阿里云研发的通义千问大模型系列的720亿参数规模的模型。Qwen-72B是基于Transformer的大语言模型, 在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。同时,在Qwen-72B的基础上,使用对齐机制打造了基于大语言模型的AI助手Qwen-72B-Chat。 | 文本生成 |
Qwen1.5-1.8B-Chat | 945b73ebc8a1429fb71033f424792dc6 | 通义千问1.5(Qwen1.5)是阿里云研发的通义千问系列开源模型,是一种基于Transformer的纯解码器语言模型,已在大量数据上进行了预训练。该系列包括Base和Chat等多版本、多规模,满足不同的计算需求,这是Qwen1.5-1.8B-Chat版本。 | 文本生成 |
Qwen2-0.5B-Instruct | df50f7280466468a9d7bb3359b2a52eb | Qwen2 是 Qwen 大型语言模型的新系列。Qwen2发布了5个尺寸的预训练和指令微调模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。这是指令调整的 0.5B Qwen2 模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 | 文本生成 |
InternLM2.5-1.8B-Chat | cd88b31fb3ca41cb8b1840b8ab15b36b | InternLM2.5-1.8B-Chat是 InternLM2.5 版本开源的 18 亿个参数的为实际场景量身定制的聊天模型,具备出色的推理能力。 | 文本生成 |
Qwen2-Math-72B-Instruct | ddcfe3e18fe6450389d784509eeb1981 | Qwen2-Math-72B-Instruct模型是基于Qwen2-Math-72B训练的一个特定于数学的奖励模型。Qwen2系列的数学专用大型语言模型包括Qwen2-Math和Qwen2-Math-Instruct-1.5B/7B/72B。该模型的数学能力明显优于开源模型甚至闭源模型(例如GPT-4o)。 | 文本生成 |
YOLOv7 | 00b1bf14cd884a9ebafe5cb977b7519e | YOLOv7(You Only Look Once version 7)是YOLO系列目标检测算法的版本之一。自YOLO系列诞生以来,它凭借其高效的实时性能和出色的检测精度,在目标检测领域取得了显著的成就。YOLOv7在继承YOLO系列优点的同时,进一步提升了算法的性能和速度,成为当前目标检测领域的新里程碑。 | 图像检测 |
InternLM2-Chat-1.8B | 531c12984ef14caea84433f46461332c | InternLM2-Chat-1.8B是通过在线RLHF进一步在InternLM2-Chat-1.8B-SFT之上对齐的聊天模型。InternLM2-Chat-1.8B表现出更好的指令跟随、聊天体验和函数调用,推荐用于下游应用。 | 文本生成 |
InternLM2.5-7B-Chat | 93e2382458d44cf3a914262eba78ecd1 | InternLM2.5-7B-Chat是书生·浦语大模型第2.5代开源的针对实际应用场景的,具有70亿参数的对话模型。 | 文本生成 |
ChatGLM3-6B-32K | 98b6d84f6b15421886d64350f2832782 | ChatGLM3-6B-32K模型在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体对位置编码进行了更新,并设计了更有针对性的长文本训练方法,在对话阶段使用 32K 的上下文长度训练。 | 文本生成 |
Gemma2-27B-IT | f1703966fd414563ade415ce52c2b0e4 | Gemma是来自谷歌的轻量级、最先进的开放模型家族,由用于创建双子座模型的相同研究和技术构建。它们是文本到文本的、仅限解码器的大型语言模型,提供英语版本,预训练变体和指令调整变体都有开放权重。 | 文本生成 |
CodeGemma-7B-IT | fa8b78d2db034b6798c894e30fba1173 | CodeGemma是构建在Gemma之上的轻量级开放代码模型的集合。CodeGemma-7B-IT模型是CodeGemma系列模型之一,是一种文本到文本和文本到代码的解码器模型的指令调整变体,具有70亿参数,可用于代码聊天和指令跟随。 | 文本生成 |
DeepSeek-Coder-V2-Lite-Instruct | f23651e4a8904ea589a6372e0e860b10 | DeepSeek-Coder-V2-Lite-Instruct是一款强大的开源专家混合(MoE)语言聊天模型,具有16B参数,2.4B活动参数。该模型基于DeepSeek-V2进一步预训练,增加了6T Tokens,可在特定的代码任务中实现与GPT4-Turbo相当的性能。 | 文本生成 |
Phi3.5-mini-instruct | 5d19b74515b143939829cbcd3b16b880 | Phi3.5-mini-Instruct是微软于2024年推出的Phi-3.5系列中的一个轻量级模型,专为计算资源有限的环境设计,拥有38亿参数。它支持128K Tokens的上下文长度,在基准测试中超越了同等级的Llama3.1-8B-instruct和Mistral-7B-instruct。 | 文本生成 |
Qwen1.5-110B-Chat | 27678fc8550744eca09a401793c84e25 | Qwen1.5是Qwen2的测试版,是一个基于Transformer架构的语言模型,预训练于大量数据之上。共发布了9种模型尺寸,包括0.5B、1.8B、4B、7B、14B、32B、72B和110B的密集型模型,以及一个激活了2.7B参数的14B MoE模型。该模型基于Transformer架构,采用了SwiGLU激活函数、注意力QKV偏置、组查询注意力、滑动窗口注意力与全注意力的混合等技术。 | 文本生成 |
Llama3-70B-Chinese-Chat | 0ec3428398c34371ab61b42e8d8ddd80 | Llama3-70B-Chinese-Chat是首批为中英文用户提供的教学调整的LLMs之一,其基于Meta-Llama3-70B-Instruct模型,采用ORPO算法进行微调,具有角色扮演、工具使用和数学等能力。该模型在100K偏好对的中英混合数据集上进行训练,其中文熟练度超过了ChatGPT并与GPT-4相匹配。 | 文本生成 |
Mixtral-8x7B-Instruct-V0.1 | ef4a56baf12e4c3994fedc6075d9a5d0 | Mixtral-8x7B-Instruct-V0.1是由Mistral AI开发的采用稀疏混合专家机制的大语言模型,旨在解决大规模语言处理任务中的效率问题。该模型采用了Transformer架构,并在其中引入了混合专家层(Mixture-of-Expert layer),从而实现了高效的并行计算和可扩展性。 | 文本生成 |
CRNN | 735fe32bed3e4582bbf193ae2f7a748b | CRNN(Convolutional Recurrent Neural Network)模型是一种结合了卷积神经网络(CNN)和循环神经网络(RNN)的深度学习模型,常用于处理具有序列特性的数据,尤其是在图像中识别和理解文字的场景中,如场景文字识别(Scene Text Recognition,STR)或手写文字识别(Handwriting Recognition)。 | 计算机视觉 |
ResNet-50 | d8a8f1a13f0a4c1aa4e393bf24df1571 | ResNet-50是一种卷积神经网络,是计算机视觉(Computer Version)领域最主流的深度学习模型,由何恺明及其团队在2015年提出。“ResNet”的全称是“Residual Network”,意为“残差网络”,“50”则表示这个网络具有50层的深度,但相比于原始的ResNet模型,它简化了残差块的构建,减少了通道数,同时保持了优秀的性能。 | 计算机视觉 |
DBNet | c34ba1db7dab4c02b597718e21558c26 | DBNet是一种用于文本检测的深度学习模型。文本检测是指从图像中识别和定位文本区域的过程。DBNet利用深度学习技术,通过卷积神经网络(CNN)和循环神经网络(RNN)的结合,实现对文本区域的准确检测。 | 计算机视觉 |
Text2Audio | 57b3815c37ad4eddafbb68efc5ededcd | Text2Audio是一款在线文本转语音(TTS)工具,可将文本转换为MP3音频文件。用户可以选择下载或直接在浏览器中播放生成的音频。该工具基于Google的文本转语音API,用户只需输入或粘贴想要聆听的文本,系统会以语音形式朗读出来。 | 语音模型 |
Gemma2-9B-Chinese-Chat | 8ca8542499aa442488e0436b24d1564b | Gemma2-9B-Chinese-Chat是一个基于Gemma2-9B-IT构建的指令调整语言模型,采用ORPO微调算法,并使用超过10万对偏好数据集进行微调,优化了中英双语用户的体验,具备角色扮演、工具使用等多样化的功能。 | 文本生成 |
Gemma2-27B-Chinese-Chat | a7ff91486af3411c996d88960325b321 | Gemma2-27B-Chinese-Chat是一个基于Gemma2-27B-IT构建的指令调整语言模型,采用ORPO微调算法,并使用超过10万对偏好数据集进行微调,优化了中英双语用户的体验,具备角色扮演、工具使用等多样化的功能。 | 文本生成 |
MiniCPM-Llama3-V-2.5 | bee52557e4534368b4da29112959668b | MiniCPM-Llama3-V-2.5是建立在SigLip-400M和Llama3-8B-Instruct基础上的模型型号,共有8B参数。与MiniCPM-V2.0相比,它的性能有了显著提高。在基准测试的综合评估中,超越了GPT-4V-1106、Gemini Pro、Claude3和Qwen-VL-Max等广泛使用的专有模型,并大大优于其他基于Llama3的MLLM。 | 文本生成 |
InternLM2-Chat-1.8B-SFT | a6c1e14ef78144f7be751361f3ada6b6 | InternLM2-Chat-1.8B-SFT是在InternLM2系列的18亿参数版本InternLM2-1.8B上进行监督微调(SFT)后的聊天模型。InternLM2相比于初代InternLM,在推理、数学、代码等方面的能力提升尤为显著,综合能力领先于同量级开源模型。 | 文本生成 |
InternLM2-Chat-7B-SFT | 201e45c077aa4a50af11d23cfddbaadf | InternLM2-Chat-7B-SFT是基于开源的70亿个参数的基础模型为实际场景量身定制的聊天模型,是InternLM2-Base的SFT版本,由在线RLHF从InternLM2-Chat-7B-SFT进一步训练。 | 文本生成 |
MiniCPM-1B-SFT-Chat | f439e6a2cd3f402188a1e798e9c08c10 | Minicpm-1B-SFT-Chat是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型中的一个轻量级模型。它是经过指令微调(SFT)的聊天模型版本,具有1B参数量,适合在资源有限的环境下使用。 | 文本生成 |
MiniCPM-2B-Chat | 360661b22fa243f38526b0626ebb100d | Minicpm-2B-Chat是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧聊天大模型,主体语言模型Minicpm-2B仅有24亿(2.4B)的非词嵌入参数量。 | 文本生成 |
MiniCPM-2B-SFT-Chat | b423449086da4038a2b6e0ccddd14c8e | Minicpm-2B-SFT-Chat是面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型中的一个轻量级模型。它是经过指令微调(SFT)的聊天模型版本,具有2B参数量,适合在资源有限的环境下使用。 | 文本生成 |
CosyVoice | d55680601bce417ab743a5a466335ff2 | CosyVoice是阿里巴巴通义实验室发布的一个开源多语言大语音生成模型,专注于自然语音生成,支持多语言、音色和情感控制。支持中英日粤韩五种语言的生成,效果显著优于传统语音生成模型。 | 语音模型 |
Open-Sora-Plan-v1.2.0 | 066a03446ece4a22a47610408caeaf9c | Open-Sora-Plan是由北京大学和兔展AIGC联合实验室发起的一个开源项目,旨在复现OpenAI的Sora文本到视频生成模型。v1.2.0版本引入了3D全注意力架构,替代了2+1D模型,更好地捕捉了联合的时空特征。 | 视频模型 |
CogVideo | e0003ce21f98441699c93846b65003e7 | CogVideo是智谱AI推出的基于Transformer的开源大型文本生成视频模型,具有94亿个参数,在540万对文本和视频上进行了训练。 | 视频模型 |
Qwen2-57B-A14B-Instruct | 2ab87463d3ef41a29be7ca4c5bbb48f8 | Qwen2是Qwen1.5大型语言模型系列的升级。共发布了5个尺寸的预训练和指令微调模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。Qwen2-57B-A14B-Instruct是Qwen2-57B-A14B的指令微调模型,使用了大量数据对模型进行了预训练,并使用监督微调和直接偏好优化对模型进行了后训练。 | 文本生成 |
InternVL2-8B | 1bf978dfdefc4beead593860b0fc23a8 | InternVL2.0是InternVL系列多模态大语言模型的新版本,提供了多种指令微调的模型,参数从10亿到1080亿不等。InternVL2-8B是参数为80亿的模型。与最先进的开源多模态大语言模型相比,InternVL2.0超越了大多数开源模型。 | 图像理解 |
DeepSeek-V3-客户版 | 888824689e3343c5b35f515c177f90ff11 | DeepSeek-V3是DeepSeek团队开发的新一代专家混合(MoE)语言模型,共有671B参数,在14.8万亿个Tokens上进行预训练。该模型采用多头潜在注意力(MLA)和DeepSeekMoE架构,继承了DeepSeek-V2模型的优势,并在性能、效率和功能上进行了显著提升。 | 文本生成 |
DeepSeek-R1-客户部署3 | 4bd107bff85941239e27b1509ecqzdjy | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1模型在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 | |
DeepSeek-R1-客户部署2 | 4bd107bff85941239e27b1509exnzf98 | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1模型在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 | |
DeepSeek-R1-客户部署4 | 4bd107bff85941239e27b1509ecqcbs1 | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1模型在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 | 文本生成 |
DeepSeek-R1-客户部署5 | 4bd107bff859234jsdee23ffg9lqgzw1 | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1模型在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 | 文本生成 |
DeepSeek-R1-客户部署1 | 4bd107bff85941239e27b1509exndx97 | DeepSeek-R1是一款具有671B参数大小的创新性大语言模型,该模型基于transformer架构,通过对海量语料数据进行预训练,结合注意力机制,经过监督微调、人类反馈的强化学习等技术进行对齐,具备语义分析、计算推理、问答对话、篇章生成、代码编写等多种能力。R1模型在多个NLP基准测试中表现出色,具备较强的泛化能力和适应性。 |