用“文兴一言”写论文,不考虑格式,盲审能通过吗?
但是,我们对于AI有一种盲目的相信,觉得机器嘛,不就是基于海量的数据出来的模型吗,找数据肯定是它的强项,虽然不那么只能但是基础的整体、搜集工作肯定是能完成的。于是就把数据往论文里面粘,后来与下载的财报一对,完全牛头不对马嘴。还有引用的问题,在做文献综述的时候,你想要让他去帮你读文献、归纳整理是不可能...
半年时间就发表了200多篇论文?“超级高产作者”引发学界担忧
《教授》(TheProfessor,2018)剧照。6月16日,学术自媒体账号"PublishingwithIntegrity"(意为“诚实发表”)在社交平台上发文,根据全球最大的文献摘要和引文数据库“Scopus”的数据统计,截至2024年6月15日,有22位学者在今年内发表了超过200篇论文。发表最多论文的作者截至6月15日已经发表了261篇论文,这意味...
985博士耗时4年“打假”:领域内“开山之作”是瞎编的?
陈路怀疑,这篇论文提供的“语音向量”方法根本不成立,作者是用“文本向量”做的数据。他对《中国科学报》讲述了自己的验证思路。首先,在语音中存在同音异义词。例如“ate”和“eight”这两个单词,在发音上非常相近。对于论文作者所提出的模型而言,输入一致,输出结果就必定一致。因此,两个同音异义词的输出结果也...
全球学术圈险被ChatGPT论文攻陷!知名出版商紧急撤稿
「当然可以,这里是您的主题可能需要的介绍」。一开口就是老ChatGPT了。奇怪的是,明明这句话就在第一句,这么显眼的错误,共同作者、主编、审稿人、排版人员,竟然一个都没有注意到??如果真的是经过了严格的同行评审,会发生这种情况吗?同样情况的例子不胜枚举。比如这篇讲肝损伤的论文,在总结时忽然有一大段...
Midjourney尴尬亮相学术界:为生物学论文配图,错得好离谱,网友嘲讽...
需要重新设计科学出版,充分意识到它可能被操纵的方式,并预防有毒后果。二是同行评审的失败。科学期刊的同行评审质量差异很大。需要严格的认证体系来为出版危害科学的期刊提供依据三是生成式AI可以快速伪造论文内容(包括数据、配图等),这加剧了目前的混乱局面。
指令数据:训练大模型的“隐形助力”
对比预训练环节的数据多来自于互联网数据爬取,需要经过清洗,抽取等冗长过程,指令数据的构造是另一种难度(www.e993.com)2024年11月27日。问题以一种人类真实需求来表达,不能瞎编。答案则是尽量正确,且有针对性的回答,不能乱造。例如,回答“今天天气怎么样?”时,不能说“很好”,...
每次见导师都被骂,我做对了什么?导师:啊对对对
比如你写论文需要查人口数据,但又不知从何下手,就可以直接问:秘塔AI搜索给出的信息可靠又清晰,系统又详实,好用到我直呼牛逼!像有同学不知道去哪找参考文献,或者有问题希望得到学术方面的解答,还可以直接进入学术搜索,这个搜索范围都是论文和期刊,给你专业解答,再也不怕被导师骂!
为什么说数学建模中,层次分析法(AHP)很low?
AHP本身还是具有科学意义的,但是一般用AHP的对应的重要系数要么有统计数据做支持,要么有方面专家给出建议才敢用,现在使用这种算法去打比赛。没有专业言论支持没有明确统计数据,说白了就是瞎编,所以得分也不会高(当然如果你能说清楚那当我没说)所以说用这个算法很“low...
ChatGPT写论文靠谱么?亲测:文科多套话 理工科文献“查无此文”
近日在社交媒体上,许多网友晒出用ChatGPT写论文的经历,有的网友赞叹“它写论文的能力,真是不服不行”,同时论文的查重率只有个位数;而有的网友表示,“让Chatgpt写论文,简直是一本正经地瞎编”。那么,ChatGPT写论文靠谱吗?为此,北京青年报记者对ChatGPT进行了测试,用ChatGPT写出了一篇论文并对其进行查重,结果显示只...
用AI生成数据训练AI,最终只会“模型崩溃”
论文一作伊利亚·苏玛利沃夫(IliaShumailov)称,AI生成数据中的错误会极快沉淀,最终导致从生成数据中学习的模型进一步错误地感知现实。“模型崩溃”分为早期与晚期两种。在早期时,被喂生成数据的AI模型会开始失去原初数据分布的信息;在晚期,被喂生成数据的AI模型会吐出完全不符合现实、不相关原初底层数据的结果。