追问daily | 宇宙太短,猴子敲不出莎士比亚全集;Medium平台近半...
HPT通过整合52个来自不同领域的机器人数据集,包括模拟、真实机器人和人类演示视频,将本体感觉(proprioception,指机械臂位置和速度追踪的感知数据)和视觉数据转化为令牌格式,由变压器模型统一处理。这种多模态、多领域数据的整合方式帮助机器人快速适应不同任务,无需每次从头训练。实验结果显示,HPT在多种模拟和现实任务中超...
追问weekly | 过去一周,AI领域有哪些新突破?
在CIFAR-10和CIFAR-100数据集上的实验表明,LR-BPFL显著提升了校准性能,平均期望校准误差(ECE)降至0.030,显著优于现有方法。此外,该模型在CIFAR-10和CIFAR-100上分别达到了84.67%和66.12%的预测准确率,且训练时间比传统方法快30%以上,内存开销仅增加4%。LR-BPFL的应用潜力广泛,尤其适用于需要准确不确定性评估的...
ICLR 2024 | 通用的数据清洗框架:利用多模态大模型检测数据集中的...
实验在多个公认的基准数据集上进行,包括CIFAR-10、ImageNet-100和ImageNet-Dog等。这些数据集广泛用于图像识别和分类任务,且具有不同的复杂性和多样性,从而确保了实验结果的广泛适用性。3.2脏样本生成为了模拟现实世界中的数据污染情况,作者采用了多种方法生成脏样本,包括后门攻击生成投毒样本(如BadNets、Blended、S...
ICLR 2024 | NUS尤洋团队联合MIT/上海AI Lab等提出首个无损数据集...
我们在CIFAR10,CIFAR100和TinyImageNet数据集下和多个有代表性的数据集蒸馏方法进行了对比,并进一步探索了数据集蒸馏在高IPC情境下的表现。主要的实验结果如下,更多的结果请参考我们的论文。和多个蒸馏方法在不同数据集和不同IPC(imageperclass)设定下的比较在高IPC情境下数据集蒸馏和数据集剪枝的表现比较3.2...
AI模型性能上不去?这真的不怪我,ImageNet等数据集每100个标签就错...
这10个数据集包括:MNIST、CIFAR-10、CIFAR-100、Caltech-256、ImageNet、QuickDraw、20news、IMDB、Amazon、AudioSet,它们不仅涉及图像数据集,还包括了文本、音频数据集。比如AudioSet是音频数据集,20news、IMDB和Amazon是文本数据集。下图就展示了一些被错误标记的样本。比如在CIFAR-10中的一张“青蛙”的图片被...
DHVT:在小数据集上降低VIT与卷积神经网络之间差距,解决从零开始...
DHVT-T:12层编码器,嵌入维度为192,MLP比为4,CIFAR-100和DomainNet上的注意头为4,ImageNet-1K上的注意头为3(www.e993.com)2024年11月4日。DHVT-S:12层编码器,嵌入维度为384,MLP比4,CIFAR-100上注意头为8,DomainNet和ImageNet-1K上注意头为6。需要说明的是:论文和模型的重点是在小数据集上从零开始训练。
CVPR 2022 | 提高小数据集利用效率,复旦等提出分层级联ViT网络
我们分别在四个流行的Few-ShotClassification数据集:mini-Imagenet,tiered-Imagenet,CIFAR-FS和FC100上做了详尽的实验。最终结果如表1,2,3所示:相比于现有的SOTA模型,HCTransformers在1-shot和5-shot的结果上都显示出明显的性能优势。例如,如表1所示,在miniImagnet上,HCTransformers...
ImageNet验证集6%的标签都是错的,MIT:十大常用数据集没那么靠谱
CIFAR-10和CIFAR-100数据集分别由10类和100类32×32图像组成。这两个数据集通过在互联网上搜索类别标签来收集图像。人工标记时通过过滤掉标签错误的图像,来选择与类别标签匹配的图像。标记器仅根据图像中最突出的一个实例来赋予标签,其中允许该实例有部分遮挡。
“炼丹必备”15个常用基准数据集含大规模中文多模态理解、医疗...
CIFAR-10(CanadianInstituteforAdvancedResearch,10classes)是TinyImages数据集的子集,由60000张32x32彩色图像组成,它们由AlexKrizhevsky、VinodNair和GeoffreyHinton收集。这些图像标有10个相互排斥的类别之一:飞机、汽车(但不是卡车或皮卡车)、鸟、猫、鹿、狗、青蛙、马、船和卡车(但...
加速100倍,性能媲美SOTA,浙大提出无数据知识蒸馏新方法FastDFKD
CIFAR-10和CIFAR-100分类结果。在CIFAR-10和CIFAR-100数据集上获得的学生模型准确率如表1所示。在表中,基线「Teacher」、「Student」和「KD」使用原始训练数据训练网络,不需要数据合成。如表1所示,生成方法通常比DeepInv和CMI等非生成方法快10倍,因为生成方法只需要训练一个生成器进行合成...