Augustine Cheng

  • Following

    0

  • Followers

    44


Fame: 252
No Bio yet.

Joined Aug 2021

Comments

我100%投资股灾来临时怎么办
https://youtu.be/xx7jvdDSFUk
1 day · translate
natgate一定是照nvidia的指示来卖的,哪里可能擅作主张。
1 day · translate
三小时实测Deepseek结果

//

花了三个小时来测试Deepseek,用它写大学法理学jurisprudence文章,打算如果效果好的话,用它来协助写论文。我用免费版本的Deepseek R1,ChatGPT-4o和Claude3.5 Sonnet,用它们三个写同样题目。直接给结论,Deepseek写得最好。拿Deepseek的文章去给Chatgpt和Claude评论,它们也觉得比它们自己的文章写得更好。文章和交叉评论,我都是一字一句地仔细阅读,还做了几个额外的尝试,因为我是认真要用它写论文的,我需要认真评测它的虚实。一通折腾下来,耗时6个番茄钟,也大约就是三小时。

//

Deepseek的文章写得更有深度,把课题分析得更深入,更有层次,似乎有产生新想法的能力。而其他两个模型分析得较浅,流于描述性质,读起来像是浅白的法普范文,似乎只是重组训练资料,没有给人带来新想法的感觉。Deepseek无疑是推理能力更强,做推理时细致不敷衍。因为推理能力强,它比你更了解你自己想要问些什么,不需要特别的prompt也能问出合心意的答案。到网上截取资料后,它会用自己的推理能力,把资料筛选和整合并加以论述。这点很强悍,这样就不需要初始训练资料的完整性,它可以用自己的逻辑推理,在投入运作的过程中从网络学习,做中学。而免费版的chatgpt开启联网后就很敷衍,做不到这点,付费的不清楚。从网上也看到,答错的题目,如果再问它一次,它会给你正确答案,它似乎有自行上网搜索纠正自己并存进长期记忆的能力。Deekseek也公开它的推理过程,这点是其他两个闭源大模型所缺乏的。参考它的推理过程,可以让我们人类自己学会更好地推理,也更有可能监控它的发展趋势,以免它反噬人类。另外,听说数理方面,也是Deepseek的推理能力更强,这点还没测试。

//

虽说网页免费版本没有硬性规定每日token限制,但缺点是单个聊天框的token太少,用一下子就必须开新的聊天框。这在某种程度上限制了我们个人进行大型项目的纵深,每次开新的对话框后,都需要概述一遍之前的需求和成果,才能完成一个大项目。付费能解决这难题。另外一个缺点是当机,可能是这几天突然爆红,他们的服务器负荷不来,用一下子就会当机,这点是硬伤。

//

Deepseek作为开源的模型,比其他模型来得小,推理能力又更强,这些都有利于企业或个人把它安装在自家电脑使用,专业术语叫edge AI。这么说来,data centre搭建起来的cloud AI是否还有未来?毋庸置疑,cloud AI还会是主流,显卡还是要继续卖,data centre还是要继续建,因为edge AI的功能肯定不及cloud AI,这是硬件算力所决定的,自家电脑肯定比不上data centre的超级电脑。Deepseek释出的小模型版本只可能是阉割版,能力上肯定不及大模型版本。未来,cloud AI和edge AI一定是以互补的形式存在,需要算力强的工作由cloud AI完成,需要隐私和快反应的工作edge AI代劳。

//

如果光靠AI程序更优越,体积更小,AI厂家是否就能摆脱拼命堆算力的宿命?日后,他们对于显卡的需求会否因此而下降?中国是被制裁才激发出在软件上的创新,以此弥补硬件上的不足。如果哪天特朗普开闸了,说可以给中国厂商采购最高阶的显卡,到时更好的软件配上更好的硬件,好上加好,如虎添翼,试问他们会拒绝吗?美国的AI大厂也会不断优化他们的AI程序,芯片大厂也会不断推出算力更强的显卡,软件和硬件交替迭代优化是不变的定律,这本身就是一件再正常不过的事情。再说,Deepseek真的不需要堆算力搭建起来吗?就说Deepseek的训练吧,Deepseek肯定是花了天文数字搭建初始算力才有办法训练出这么优越的模型: https://www.facebook.com/avocadoeater/posts/pfbid0wyfz2J2nCU5SEAL4GSYqMvT8pYGHUUDS7BFXbAFk4qH5tpFgqKMY751JRL5H29D4l 。(感谢Ming Ooi的推荐文章)这肯定不止500万美元,500万只是训练模型时租用算力的费用,其他的什么都不计。如果照同样算法计算,ChatGPT在训练时租用算力的费用也是在同一个数量级上,根据Deepseek给出的数据是600万到2000万美元之间。所以,别听媒体瞎说。看来,显卡和data centre这种基础设施还是刚需,此次回调是好机会,我跟自己说的,非投资建议。

//

如果有兴趣,可以到最爱的狼Facebook专页看三个大模型写的文章:
https://www.facebook.com/Zuiaidelang/posts/pfbid02oPZg9U9SdoGF3n1eQujZdQBt6jqJ3yB1JWxE9mh3Qhu4Wuh4v1P9KVLJfd7y4wwal
2 days · translate
三小时实测Deepseek结果

//

花了三个小时来测试Deepseek,用它写大学法理学jurisprudence文章,打算如果效果好的话,用它来协助写论文。我用免费版本的Deepseek R1,ChatGPT-4o和Claude3.5 Sonnet,用它们三个写同样题目。直接给结论,Deepseek写得最好。拿Deepseek的文章去给Chatgpt和Claude评论,它们也觉得比它们自己的文章写得更好。文章和交叉评论,我都是一字一句地仔细阅读,还做了几个额外的尝试,因为我是认真要用它写论文的,我需要认真评测它的虚实。一通折腾下来,耗时6个番茄钟,也大约就是三小时。

//

Deepseek的文章写得更有深度,把课题分析得更深入,更有层次,似乎有产生新想法的能力。而其他两个模型分析得较浅,流于描述性质,读起来像是浅白的法普范文,似乎只是重组训练资料,没有给人带来新想法的感觉。Deepseek无疑是推理能力更强,做推理时细致不敷衍。因为推理能力强,它比你更了解你自己想要问些什么,不需要特别的prompt也能问出合心意的答案。到网上截取资料后,它会用自己的推理能力,把资料筛选和整合并加以论述。这点很强悍,这样就不需要初始训练资料的完整性,它可以用自己的逻辑推理,在投入运作的过程中从网络学习,做中学。而免费版的chatgpt开启联网后就很敷衍,做不到这点,付费的不清楚。从网上也看到,答错的题目,如果再问它一次,它会给你正确答案,它似乎有自行上网搜索纠正自己并存进长期记忆的能力。Deekseek也公开它的推理过程,这点是其他两个闭源大模型所缺乏的。参考它的推理过程,可以让我们人类自己学会更好地推理,也更有可能监控它的发展趋势,以免它反噬人类。另外,听说数理方面,也是Deepseek的推理能力更强,这点还没测试。

//

虽说网页免费版本没有硬性规定每日token限制,但缺点是单个聊天框的token太少,用一下子就必须开新的聊天框。这在某种程度上限制了我们个人进行大型项目的纵深,每次开新的对话框后,都需要概述一遍之前的需求和成果,才能完成一个大项目。付费能解决这难题。另外一个缺点是当机,可能是这几天突然爆红,他们的服务器负荷不来,用一下子就会当机,这点是硬伤。

//

Deepseek作为开源的模型,比其他模型来得小,推理能力又更强,这些都有利于企业或个人把它安装在自家电脑使用,专业术语叫edge AI。这么说来,data centre搭建起来的cloud AI是否还有未来?毋庸置疑,cloud AI还会是主流,显卡还是要继续卖,data centre还是要继续建,因为edge AI的功能肯定不及cloud AI,这是硬件算力所决定的,自家电脑肯定比不上data centre的超级电脑。Deepseek释出的小模型版本只可能是阉割版,能力上肯定不及大模型版本。未来,cloud AI和edge AI一定是以互补的形式存在,需要算力强的工作由cloud AI完成,需要隐私和快反应的工作edge AI代劳。

//

如果光靠AI程序更优越,体积更小,AI厂家是否就能摆脱拼命堆算力的宿命?日后,他们对于显卡的需求会否因此而下降?中国是被制裁才激发出在软件上的创新,以此弥补硬件上的不足。如果哪天特朗普开闸了,说可以给中国厂商采购最高阶的显卡,到时更好的软件配上更好的硬件,好上加好,如虎添翼,试问他们会拒绝吗?美国的AI大厂也会不断优化他们的AI程序,芯片大厂也会不断推出算力更强的显卡,软件和硬件交替迭代优化是不变的定律,这本身就是一件再正常不过的事情。再说,Deepseek真的不需要堆算力搭建起来吗?就说Deepseek的训练吧,Deepseek肯定是花了天文数字搭建初始算力才有办法训练出这么优越的模型: https://www.facebook.com/avocadoeater/posts/pfbid0wyfz2J2nCU5SEAL4GSYqMvT8pYGHUUDS7BFXbAFk4qH5tpFgqKMY751JRL5H29D4l 。(感谢Ming Ooi的推荐文章)这肯定不止500万美元,500万只是训练模型时租用算力的费用,其他的什么都不计。如果照同样算法计算,ChatGPT在训练时租用算力的费用也是在同一个数量级上,根据Deepseek给出的数据是600万到2000万美元之间。所以,别听媒体瞎说。看来,显卡和data centre这种基础设施还是刚需,此次回调是好机会,我跟自己说的,非投资建议。

//

如果有兴趣,可以到最爱的狼Facebook专页看三个大模型写的文章:
https://www.facebook.com/Zuiaidelang/posts/pfbid02oPZg9U9SdoGF3n1eQujZdQBt6jqJ3yB1JWxE9mh3Qhu4Wuh4v1P9KVLJfd7y4wwal
2 days · translate
好的,回去看。

跌破了。
2 days · translate
我正在研究deepseek,昨晚有尝试了,打算等下拿它来写法理学jurisprudence essay,跟chatgpt比较。我觉得deepseek应该在edge ai(在自家电脑offline运行),数理和中文知识储备上会比较占优势。跟natgate有什么关联吗?请教。
3 days · translate
快点破两块,等加码。
3 days · translate
失望,根本没有抓到重点。data centre需要全球布局,不只是成本因素,更是减少延迟和法律监管问题。试想想,视频开会两秒延迟,做live两秒延迟,断线再断线,手机付款一直load不到,谁还用你的服务?这些网络服务要玩得转,必须在本地建设数据中心。还有就是这些网络服务提供商收集到的用户资料,能算便储存在他国的吗?通讯app密码,银行密码,电子钱包秘密能随便储存在他国的吗?国家安全的资料能随便储存在他国的吗?所以各国法律都会强制你把资料存在本地,所以才要本地建设数据中心。请不要张贴没有重点的chatgpt答案。
1 week · translate
如果数据中心可以集中在美国,为什么一直以来科技大厂要在全球布局自己的数据中心呢?在美国建就好了啊。你要多研究研究为什么数据中心必须全球布局这个问题。
1 week · translate
Load more