ELECTRA
什么是ELECTRA?ELECTRA(Efficiently Learning an Encoder that Classifies Token Replacements Accurately)是谷歌研究院开发的一种开创性的语言模型预...
RoBERTa
什么是RoBERTa?RoBERTa,全称为“一种稳健优化的BERT预训练方法”,是由Facebook AI开发的一种语言模型。它建立在谷歌BERT(来自Transformers的双向编码器表示)的开创性架构之上,但修改了关键的超参数...
SSD (单次多框检测器)
什么是 SSD (单次多框检测器)?SSD (Single Shot MultiBox Detector) 是一种开创性的目标检测算法,它在速度和准确性之间找到了一个中间地带。与两阶段检测器(如Faster R-CNN)先生成区域提议...
T5
T5 是什么?T5,全称为 Text-to-Text Transfer Transformer,是谷歌研究院推出的一款开创性模型,它将所有自然语言处理(NLP)任务重新构建为统一的“文本到文本”格式。T5 不再为摘要、翻译或分类等任务...
YOLOv8
什么是YOLOv8?YOLOv8是由Ultralytics开发的“You Only Look Once”模型家族的最新版本。它是一个最先进的实时目标检测模型,推动了速度和准确性的极限。与以前的版本不同,YOLOv8是一个完整的框架,为...
DistilBERT
什么是DistilBERT?DistilBERT是Hugging Face开发的尖端语言模型。它是流行的BERT(Bidirectional Encoder Representations from Transformers)模型的一...
Llama-2-Chat
Llama-2-Chat是什么?Llama-2-Chat是Meta AI开发并发布的一系列预训练和微调过的大型语言模型(LLM)。作为原始Llama的继任者,该模型家族专门针对基于对话的用例进行了优化,使其成为OpenAI和Googl...
Mistral-7B-Instruct
什么是 Mistral-7B-Instruct?Mistral-7B-Instruct 是由 Mistral AI 开发的一款高性能、拥有 73 亿参数的语言模型。作为一个指令调优模型,它专门设计用于遵循用户命令并进行对话式聊天。它因...
MobileBERT
什么是MobileBERT?MobileBERT是BERT-large的一个精简版本,专门为像手机这样资源受限的设备而适配。它由Google AI的研究人员开发,在Google Pixel 4手机的CPU上运行时,其性能与标准的BER...
OpenHermes-2.5
什么是 OpenHermes-2.5?OpenHermes-2.5 是由 Nous Research 开发的一款顶尖的开源语言模型。它构建在强大的 Mistral 7B 架构之上,并在一个包含近百万条目的海量数据集上进行了精心微调,该...
Orca 2
什么是 Orca 2?Orca 2 是由微软研究院开发的一对小型语言模型(SLM),提供70亿和130亿参数两个版本。与许多从大型模型缩减而来的模型不同,Orca 2 经过专门训练,以增强小型模型的推理能力。它建立在第一个 Orca ...
微软 Phi-3 Mini
什么是微软 Phi-3 Mini?微软 Phi-3 Mini 是一款开创性的 38 亿参数小型语言模型 (SLM),其性能可与 Mixtral 8x7B 和 GPT-3.5 等大型模型相媲美。它是 Phi-3 开放模型家族的一员,该家...