优惠论坛
Well123
注册
找回密码 |
天策评选的优秀公司,所有会员与公司发生的问题我们将负责尽力协助处理。
收起/展开
新晋公司
 

新晋公司具有驻站代表,并不在论坛纠纷服务范围内,请会员自行判断选择

  • 356
S级信誉公司
ManBetX万博
YZ
乐投
taptap(点点)
E世博
瑞丰国际
A级信誉公司
吉祥坊
星宝合营
乐动体育
B级信誉公司
bet365
C级合作公司
CMP
金星
LOKI
平博
  • 推荐主题
  • 热门活动
  • 币圈快讯
  • 商城动态
重要通知
 
论坛搜索
              搜索
Array ( [fid] => 6974 [description] => 专注于币圈最新最快资讯,数字货币应用及知识普及 [password] => [icon] => b1/common_6974_icon.png [redirect] => [attachextensions] => [creditspolicy] => Array ( [post] => Array ( [usecustom] => 1 [cycletype] => 1 [cycletime] => 0 [rewardnum] => 5 [extcredits1] => 1 [extcredits2] => 1 [extcredits3] => 0 [extcredits4] => 0 [extcredits5] => 0 [extcredits6] => 0 [extcredits7] => 0 [extcredits8] => 0 [rid] => 1 [fid] => 6974 [rulename] => 发表主题 [action] => post [fids] => 32,52,67,447,1120,1151,1156,6750,6762,6763,6766,6769,6772,6773,6787,6796,6808,6809,6810,6813,6814,6820,6829,6830,6846,6856,6864,6865,6827,6930,6931,6776,6858,6880,6764,6932,6871,6758,6905,1116,6788,6812,6798,6736,6759,6842,6966,6767,6828,6924,6935,6936,6938,6940,6941,6826,6909,6803,6919,6911,6908,6881,6920,6912,6913,6921,6925,6922,6789,6818,6819,6872,6928,6969,6889,6888,6917,6939,6947,6961,6937,6943,6970,6869,6900,6902,6783,6817,1111,6870,6821,6876,6952,6954,6960,6942,6910,6949,6962,6963,6964,6927,6926,6973,6728,6929,6874,6894,6896,6885,6857,6868,1113,6778,56,6844,6878,6802,6933,6811,6923,6877,6875,6918,6892,6757,6832,6833,6795,6793,6848,6837,6849,6850,6851,6852,6853,6854,6863,6882,6836,6790,6838,6794,6791,6873,555,6934,6958,6944,6945,6907,6779,6886,6950,6904,6956,6862,6957,6855,6955,6959,6914,6965,6971,6972,6953,6976,6824,6815,6891,6866,6979,6977,6765,6903,6948,6980,6981,6983,6799,6982,6951,6984,6975,6895,6845,6879,1121,6974 ) [reply] => Array ( [usecustom] => 1 [cycletype] => 1 [cycletime] => 0 [rewardnum] => 0 [extcredits1] => 0 [extcredits2] => 1 [extcredits3] => 10 [extcredits4] => 0 [extcredits5] => 0 [extcredits6] => 0 [extcredits7] => 0 [extcredits8] => 0 [rid] => 2 [fid] => 6974 [rulename] => 发表回复 [action] => reply [fids] => 32,52,67,447,1120,1151,1156,6750,6763,6766,6769,6772,6773,6787,6796,6808,6809,6810,6813,6814,6820,6829,6830,6846,6856,6864,6865,6827,6930,6931,6776,6858,6880,6764,6932,6871,6758,1116,6788,6812,6798,6736,6759,6842,6966,6767,6828,6924,6935,6936,6938,6940,6941,6826,6909,6803,6919,6911,6908,6881,6920,6912,6913,6921,6925,6922,6789,6818,6819,6872,6928,6969,6889,6888,6917,6939,6947,6961,6937,6943,6970,6869,6900,6902,6783,6817,1111,6870,6821,6876,6952,6954,6960,6942,6910,6949,6962,6963,6964,6927,6926,6973,6728,6929,6874,6894,6896,6885,6857,6868,1113,6778,56,6844,6878,6802,6933,6811,6923,6877,6875,6918,6892,6757,6832,6833,6795,6793,6848,6837,6849,6850,6851,6852,6853,6854,6863,6836,6790,6838,6794,6791,6873,555,6934,6958,6944,6945,6907,6779,6886,6950,6904,6956,6862,6957,6855,6955,6959,6914,6965,6971,6972,6953,6976,6824,6815,6891,6866,6979,6977,6765,6903,6948,6980,6981,6983,6799,6982,6951,6984,6975,6895,6845,6879,1121,6974 ) ) [formulaperm] => a:5:{i:0;s:0:"";i:1;s:0:"";s:7:"message";s:0:"";s:5:"medal";N;s:5:"users";s:0:"";} [moderators] => 实习版主1 [rules] => [threadtypes] => Array ( [required] => 1 [listable] => 1 [prefix] => 1 [types] => Array ( [1590] => 论坛公告 [1752] => 公司优惠 [1603] => 虚拟币交流 [1753] => 数字钱包 [1754] => 虚拟币存提 [1755] => 交易所 [1655] => 虚拟币资讯 [1756] => 银行卡 [1757] => 第三方支付 [1760] => 币圈大佬 [1758] => 科技前沿 [1759] => 天策嗨聊 [1661] => 入驻合作 ) [icons] => Array ( [1590] => [1752] => [1603] => [1753] => [1754] => [1755] => [1655] => [1756] => [1757] => [1760] => [1758] => [1759] => [1661] => ) [moderators] => Array ( [1590] => 1 [1752] => [1603] => [1753] => [1754] => [1755] => [1655] => [1756] => [1757] => [1760] => [1758] => [1759] => 1 [1661] => ) ) [threadsorts] => Array ( ) [viewperm] => 9 26 22 11 12 13 14 15 27 43 44 60 61 62 63 64 19 31 67 68 69 73 75 76 83 84 87 90 91 92 33 38 57 58 65 66 74 77 79 80 85 86 1 2 3 7 8 [postperm] => 22 11 12 13 14 15 27 43 44 60 61 62 63 64 19 67 68 69 73 75 76 83 84 87 90 91 92 33 38 57 58 65 66 74 77 79 80 85 86 1 2 3 [replyperm] => 26 22 11 12 13 14 15 27 43 44 60 61 62 63 64 19 67 68 69 73 75 76 83 84 87 90 91 92 33 38 57 58 65 66 74 77 79 80 85 86 1 2 3 [getattachperm] => 26 22 11 12 13 14 15 27 43 44 60 61 62 63 64 19 67 68 69 73 75 76 83 84 87 90 91 92 33 38 57 58 65 66 74 77 79 80 85 86 1 2 3 [postattachperm] => 26 22 11 12 13 14 15 27 43 44 60 61 62 63 64 19 67 68 69 73 75 76 83 84 87 90 91 92 33 38 57 58 65 66 74 77 79 80 85 86 1 2 3 [postimageperm] => 26 22 11 12 13 14 15 27 43 44 60 61 62 63 64 19 67 68 69 73 75 76 83 84 87 90 91 92 33 38 57 58 65 66 74 77 79 80 85 86 1 2 3 [spviewperm] => [seotitle] => [keywords] => [seodescription] => [supe_pushsetting] => [modrecommend] => Array ( [open] => 0 [num] => 10 [imagenum] => 0 [imagewidth] => 300 [imageheight] => 250 [maxlength] => 0 [cachelife] => 0 [dateline] => 0 ) [threadplugin] => Array ( ) [replybg] => [extra] => a:2:{s:9:"namecolor";s:0:"";s:9:"iconwidth";s:2:"60";} [jointype] => 0 [gviewperm] => 0 [membernum] => 0 [dateline] => 0 [lastupdate] => 0 [activity] => 0 [founderuid] => 0 [foundername] => [banner] => [groupnum] => 0 [commentitem] => [relatedgroup] => [picstyle] => 0 [widthauto] => 0 [noantitheft] => 0 [noforumhidewater] => 0 [noforumrecommend] => 0 [livetid] => 0 [price] => 0 [fup] => 6729 [type] => forum [name] => 虚拟币讨论大厅 [status] => 1 [displayorder] => 3 [styleid] => 0 [threads] => 29781 [posts] => 484065 [todayposts] => 81 [yesterdayposts] => 93 [rank] => 2 [oldrank] => 2 [lastpost] => 2809109 狗狗币——历史经验表明,持有者可能还要经历两年的痛苦。 1772007116 rainwang [domain] => [allowsmilies] => 1 [allowhtml] => 1 [allowbbcode] => 1 [allowimgcode] => 1 [allowmediacode] => 0 [allowanonymous] => 0 [allowpostspecial] => 21 [allowspecialonly] => 0 [allowappend] => 0 [alloweditrules] => 1 [allowfeed] => 0 [allowside] => 0 [recyclebin] => 1 [modnewposts] => 2 [jammer] => 1 [disablewatermark] => 0 [inheritedmod] => 0 [autoclose] => 0 [forumcolumns] => 3 [catforumcolumns] => 0 [threadcaches] => 0 [alloweditpost] => 1 [simple] => 16 [modworks] => 1 [allowglobalstick] => 1 [level] => 0 [commoncredits] => 0 [archive] => 0 [recommend] => 0 [favtimes] => 0 [sharetimes] => 0 [disablethumb] => 0 [disablecollect] => 0 [ismoderator] => 0 [threadtableid] => 0 [allowreply] => [allowpost] => [allowpostattach] => )
发帖
1234下一页
打印 上一主题 下一主题
[虚拟币交流] DeepSeek 被误读的 5 个真相,AI 大佬亲自揭秘-转载
[复制链接]
avatar
跳转到指定楼层
1#
DeepSeek 已经爆火了一个春节,红起来自然是非就多。尤其在海外局势变化错综复杂的情况下,DeepSeek 的天朝血统,给它招来了许多谣言。  [0 n" ^: s) o' _& h& {" g3 s
% o' H3 u/ l1 G) r6 |+ q6 N
Stability AI 曾经的研究主管 Tanishq Mathew Abraham 昨天挺身而出,以自己业内人士的身份下场,指出了 DeepSeek 极为特殊的几点:9 u, v0 @1 k8 T4 P. o4 b
* M1 j  Q; t  d& }' v2 _4 S
1.性能实际上与 OpenAI 的 o1 一样好,这是一个前沿模型,标志着开源真正赶上了闭源
+ @$ D$ \' X: A; ?$ _" ~# J! e0 k: j/ l) S5 H+ R
2.与其他前沿模型相比,DeepSeek 以相对较低的训练费用完成: K0 R9 h& s, H

6 H6 X$ k+ N* y; D/ r/ p7 @) \$ F8 @3.易于使用的界面,结合其网站和应用程序中可见的思维链,吸引了数百万新用户加入
. |# q6 }  G; b$ O- Y7 k: i/ c' }
) w4 m6 O" @4 {1 M6 G, \5 J除此之外,他更是针对几大流行的谣言,写了长长一篇博文,分析解释了围绕在 DeepSeek 四周的(离谱)言论。! h! {. Y, X4 R, Y7 I

" M: n# P1 y) N5 L4 i以下为博客文章,内容有所编辑:
% i$ D; i! b: }( [. }. U2 B! ]2 O3 t* `) D7 z1 ~* M4 O% r( a
2025 年 1 月 20 日,一家名为 DeepSeek 的天朝 AI 公司开源并发布了他们的推理模型 R1。鉴于 DeepSeek 是一家天朝公司,美国及其 AGI 公司存在各种「国家安全担忧」。由于这一点,**关于它的错误信息已经广泛传播。**
( ]  u% q1 i$ j0 S) S" M, {) C3 K. L$ i! @2 o" B
这篇文章的目的是反驳自 DeepSeek 发布以来,许多关于 DeepSeek 的极端糟糕的 AI 相关观点。同时,作为一个在生成式 AI 前沿工作的 AI 研究人员,提供更有平衡性的观点。
: O! w  {& J0 w6 ^1 U6 Y6 F
6 O( B5 {* p. c# p8 c谣言 1:可疑!DeepSeek 是一家突然冒出来的天朝公司
4 k: I( N, a2 K& c完全错误,到 2025 年 1 月,几乎所有生成式 AI 研究人员都已经听说过 DeepSeek。DeepSeek 甚至在完整发布前几个月就发布了 R1 的预览!
' ~& [  }3 }8 W" c/ f/ _6 B. H6 T: d/ _
任何传播这种谣言的人,很可能并不从事人工智能工作——如果你不涉足该领域,却以为自己了解这个领域的一切,是荒谬且极其自负的。
0 W9 V) h: _0 K# Z
5 k0 b# Y# s$ p" x4 JDeepSeek 的首个开源模型 DeepSeek-Coder,于 2023 年 11 月发布。当时是业界领先的代码 LLMs(编者注:专注于理解和生成代码的语言模型)。正如下面的图表所示,DeepSeek 在一年内持续发货,达到 R1:
+ F6 y! R5 B; c0 {' e5 T, f# R- K
  W; s9 H0 L6 |
这不是一夜之间的成功,他们进步的速度也没有什么可疑之处。在人工智能发展如此迅速,且他们拥有一个明显高效的团队的情况下,一年内取得这样的进步在我看来是非常合理的。& ]( o- c7 f; ~  t
9 ]  G9 U$ w8 z# e9 |
如果您想知道哪些公司在公众视野之外,但 AI 领域内备受看好,我会推荐关注 Qwen(阿里巴巴)、YI(零一万物)、Mistral、Cohere、AI2。需要注意的是,它们没有像 DeepSeek 那样持续发布 SOTA 模型,但它们都**有潜力发布出色的模型**,正如它们过去所展示的那样。
$ s  h" ~0 ^& T/ Q* S& G
  U! s8 [5 [0 d) ~) t- H谣言 2:撒谎!这个模型的成本不是 600 万美元7 H7 ^/ D% `* ^
这是一个有趣的问题。这类谣言认为 DeepSeek 想避免承认他们有非法的幕后交易来获取他们不应获得的计算资源(由于出口管制),从而在关于模型训练成本的真实性上撒谎。# ^8 ?% \7 o# C1 U" [+ F

- D' f6 |+ [0 e首先,600 万美元这个数字值得好好研究。它在 DeepSeek-V3 论文中有提及,该论文是在 DeepSeek-R1 论文发布前一个月发布的:5 G/ @- u6 K9 d* k& u; X8 S
5 g$ B. C+ B+ B; p, C) U) \, G" D
1 A; e6 ?( w( s5 T& H. f
DeepSeek-V3 是 DeepSeek-R1 的基础模型,这意味着 DeepSeek-R1 是 DeepSeek-V3 加上一些额外的强化学习训练。所以在某种程度上,成本已经不准确,因为强化学习训练的额外成本没有被计算在内。但那可能只会花费几十万美元。5 g  F  `0 T8 S* f
2 R# K! ?+ Z$ u0 [
好的,那么 DeepSeek-V3 论文中提到的 550 万美元,是不正确的吗?基于 GPU 成本、数据集大小和模型大小的众多分析,已经得出了类似的估计。请注意,虽然 DeepSeek V3/R1 是一个 671B 参数的模型,但它是一个专家混合模型,这意味着模型的任何函数调用/前向传递只使用约 37B 参数,这是计算训练成本所使用的值。1 q- ^$ |1 j! n1 }) f" w4 U

" \+ q* l4 K1 ~' H& R然而,DeepSeek 的成本,是基于当前市场价格估计的这些 GPU 的成本。我们实际上并不知道他们的 2048 个 H800 GPU 集群(注意:不是 H100s,这是一个常见的误解和混淆!)的成本。通常,连续的 GPU 集群在批量购入时成本会更低,因此甚至可能更便宜。% `7 q% h4 F8 X6 y4 K" {
* b( |1 u! ?: ?
但是这里有个问题,这是最终运行的成本。在这成功之前,可能进行了许多在小规模的实验和消融,这一部分会需要相当大的成本,但这些并未在此处报告。  g3 P, s8 }8 ~! a
3 P' T9 C9 D" [! U/ @* U( x
除此之外,可能还有许多其他成本,如研究员薪资。SemiAnalysis 报告称,DeepSeek 的研究员薪资传闻约为 100 万美元。这相当于 AGI 前沿实验室如 OpenAI 或 Anthropic 的高薪水平。
+ Z! o) l+ I& V  Z& N  n, y5 D, G- \# [4 M9 S2 }+ \: |, F: Y
通常,当报道和比较不同模型的训练成本时,最终的训练运行成本是最受关注的。但由于糟糕的论调和错误信息的传播,人们一直在争论额外的成本使 DeepSeek 的低成本和高效运营性质受到质疑。这是极其不公平的。无论是从消融/实验的角度,还是从其他 AGI 前沿实验室的研究人员薪酬的角度来看,成本都非常显著,但这些通常在这样的讨论中没有被提及!
& s- K5 t1 Q* N0 `% ^
; u4 G7 n: f' E8 g) ^9 B1 E$ R& X谣言 3:这么便宜?所有美国 AGI 公司都在浪费钱,看跌英伟达6 @5 j* }1 A; W3 s/ M
我认为这又是一个相当愚蠢的看法。与许多其他 LLM 相比,DeepSeek 在训练中确实效率更高。是的,许多美国前沿实验室在计算上效率低下是非常可能的。然而,这并不一定意味着拥有更多的计算资源是坏事。
7 P: L" D& [/ C$ O9 o  G
5 \  [- _5 a! r! E老实说,每当听到这样的观点,我就清楚地知道他们不懂 scaling laws,也不懂 AGI 公司 CEO(以及任何被视为 AI 专家的人)的心态。让我就这个话题发表一些看法。
1 J4 w# I6 ?3 r  o4 Z/ J& W" r
6 ~$ V% M! o) _. T) fScaling laws 表明,只要我们继续将更多的计算能力投入到模型中,我们就能获得更好的性能。当然,AI 扩展的确切方法和方面随着时间的推移而发生了变化:最初是模型大小,然后是数据集大小,现在是推理时间计算和合成数据。2 W- L0 D7 V$ W7 v( I$ G

" g, {1 L9 @! d7 E9 {自 2017 年原始 Transformer 以来,更多的计算能力等于更好的性能的整体趋势似乎仍在持续。  r, ^8 }% P+ R2 _

6 F1 n3 B+ B8 v更高效的模型意味着您可以在给定的计算预算下获得更高的性能,但更多的计算资源仍然更好。更高效的模型意味着你可以用更少的计算资源做更多的事情,但使用更多的计算资源,可以做到更多!
8 ~* @8 K0 A1 n8 x/ V$ S$ W& r! T0 l
你可能有自己的关于 scaling laws 的看法。你可能认为即将出现一个平台期。你可能认为过去的表现并不能预示未来的结果,正如金融界所说。! Q( l4 H2 ]: ^! R& \- `, L
& A  f9 }0 F& i
但如果所有最大的 AGI 公司都在押注 scaling laws 能够持续足够长的时间,以实现 AGI 和 ASI。这是他们的坚定信念,那么唯一合理的行动就是获取更多的计算能力。
' K/ U$ a' g/ ?) _7 N( T  S
- V( r* s/ _7 q0 e! I现在你可能认为「NVIDIA 的 GPU 很快就会过时,看看 AMD、Cerebras、Graphcore、TPUs、Trainium 等」,blabla。有数百万种针对 AI 的硬件产品,都在试图与 NVIDIA 竞争。其中之一可能在将来获胜。在这种情况下,也许这些 AGI 公司会转向它们——但这与 DeepSeek 的成功完全无关。4 t4 L3 W! @! V
2 F' u% _- Y& U+ {! }! ~/ t8 ~0 `
个人而言,我认为没有强有力的证据表明其他公司会撼动 NVIDIA 在 AI 加速芯片领域的统治地位,鉴于 NVIDIA 目前的市场统治地位和持续的创新水平。+ k( V* K. }. O" q

* d4 r: v  P8 p( {4 C总体而言,我看不出为什么 DeepSeek 意味着你应该看跌 NVIDIA。你可能有其他理由看跌 NVIDIA,这些理由可能非常合理且正确,但 DeepSeek 似乎不是我认为合适的理由。# E9 Q+ D9 @  S
* y9 C; J4 [. N6 ^: X& s9 |
谣言 4:模仿罢了!DeepSeek 没有做出任何有意义的创新5 p# [5 k: J! U6 Q  s) a" B' h
错误。**语言模型的设计和训练方法有很多创新,其中一些比其他更重要**。以下是一些(不是完整的列表,可以阅读 DeepSeek-V3 和 DeepSeek-R1 论文以获取更多详细信息):
3 J3 r- ?0 O& O7 P' P3 t& ^+ g0 o9 d  T0 N% e* K
多头潜注意力 (MLA) – LLMs 通常是指利用所谓的多头注意力(MHA)机制的 Transformer。DeepSeek 团队开发了一种 MHA 机制的变体,它既更节省内存,又提供更好的性能。! w( w; G: N0 t, z$ ~+ X( o( v
' D4 t+ `9 F! {+ W8 j
GRPO 与可验证奖励 – 自从 o1 发布以来,AI 从业者一直在尝试复制它。由于 OpenAI 对它的工作方式一直相当保密,大家不得不探索各种不同的方法来实现类似 o1 的结果。有各种尝试,如蒙特卡洛树搜索(谷歌 DeepMind 在围棋中获胜所采用的方法),结果证明不如最初预期的那样有希望。
9 d  U* V& p8 e: z/ x7 U# D
" P% i' B) ]9 v6 b5 g' ]7 ]DeepSeek 展示了一个非常简单的强化学习(RL)管道实际上可以实现类似 o1 的结果。除此之外,他们还开发了自己变种的常见 PPO RL 算法,称为 GRPO,它更高效且性能更好。我想 AI 社区中的许多人都在想,我们为什么之前没有尝试过这种方法呢?
: A1 G/ a  j' Q7 ]( a( `
* O6 L$ S% G# z. PDualPipe – 在多个 GPU 上训练 AI 模型时,有许多效率方面需要考虑。你需要弄清楚模型和数据集如何在所有 GPU 之间分配,数据如何通过 GPU 流动等。你还需要减少 GPU 之间任何数据传输,因为它非常慢,最好尽可能在每个单独的 GPU 上处理。无论如何,有许多设置此类多 GPU 训练的方法,DeepSeek 团队设计了一种新的、效率更高且速度更快的解决方案,称为 DualPipe。8 S0 q# H/ C! ^! h9 w, Y

' d2 K& `1 u. A8 n" b我们非常幸运,DeepSeek 完全开源了这些创新,并写了详细的介绍,这与美国 AGI 公司不同。现在,每个人都可以受益,用这些创新的办法来提高他们自己的 AI 模型训练。' u! {" F/ g4 z3 K! U: }

; G4 f8 U& H' W4 N* L$ P谣言 5:DeepSeek 正在「汲取」ChatGPT 的知识
# C$ }4 L' u: H- q& ^9 V2 |4 _- G8 e戴维·萨克斯(美国ZF的 AI 和加密巨头)和 OpenAI 声称,DeepSeek 使用一种称为蒸馏的技术「汲取」ChatGPT 的知识。$ z- P2 y) Q* S$ N8 n
) z! d; ^9 \/ q1 u( d
首先,这里的「蒸馏」一词使用得非常奇怪。通常,蒸馏指的是在所有可能的下一个词(token)的全概率(logits)上进行训练,但这个信息甚至不能通过 ChatGPT 暴露出来。5 S4 t6 R3 l# q2 s) ^
" w; x2 f$ {1 c6 p% p4 Z, n: i/ Y
但是好吧,就假设我们在讨论如何使用 ChatGPT 生成的文本进行训练,尽管这并不是该术语的典型用法。
1 x6 }0 `; _* W) @1 l8 K
  _. T  K2 p  ]5 C) V' [0 N. cOpenAI 及其员工声称 DeepSeek 自己使用 ChatGPT 生成文本并在此基础上进行训练。他们没有提供证据,但如果这是真的,那么 DeepSeek 显然违反了 ChatGPT 的服务条款。我认为这对一家天朝公司来说,法律后果尚不明确,但我对此了解不多。2 }4 c* K& ~8 g, f# }) r3 Y0 o

! C1 U" z; z! w请注意,这仅限于 DeepSeek 自己生成了用于训练的数据。如果 DeepSeek 使用了来自其他来源的 ChatGPT 生成数据(目前有许多公开数据集),我的理解是这种「蒸馏」或合成数据训练并未被 TOS 禁止。* `. A7 r( C, u2 T

( t4 ?0 }1 k/ T) }尽管如此,在我看来,这并不减少 DeepSeek 的成就。与 DeepSeek 的效率方面相比,作为研究人员,让我印象更深刻的是他们对 o1 的复制。我非常怀疑对 ChatGPT 进行「蒸馏」有任何帮助,这种怀疑完全是出于 o1 的 CoT 思维过程从未公开过,那么 DeepSeek 如何能够学习它呢?
+ J* n0 s# E, D1 X* W' T; V
0 w1 g2 Z' _3 v/ s2 b' @4 S此外,许多 LLMs 确实在 ChatGPT(以及其他 LLM)上进行了训练,而且在新抓取的任何互联网内容中自然也会有 AI 文本。
: i6 R3 B7 W( l0 W9 O; |& n' `3 ~2 j1 J- [3 i* s% i
总体而言,认为 DeepSeek 的模型表现良好仅仅是因为它简单提炼了 ChatGPT 的观点,是忽略了 DeepSeek 在工程、效率和架构创新方面的现实。
# }4 a9 B6 F1 f; R& W) B+ w0 |$ P0 o
应该担心天朝在人工智能领域的霸权吗?
" Z. e& `. h5 H, A或许有一点?坦白说,现在和两个月前相比,中美 AI 竞赛在实质上并没有太多变化。相反,外界的反应相当激烈,这确实可能通过资金、监管等方面的变化影响整体 AI 格局。
. N# T) `/ p6 m! y( s* D
/ ]$ i; q1 Y% s- Z天朝人一直都在人工智能领域具有竞争力,DeepSeek 现在让他们变得无法忽视。  h1 o" h  ~  e) n

, i$ n" S! Y* B! G. ]5 G" A关于开源的典型论点是,由于天朝落后,我们不应该公开分享我们的技术,让他们赶上。但显然,天朝已经赶上了,他们实际上很久以前就已经赶上了,他们在开源方面实际上处于领先地位,因此不清楚进一步收紧我们的技术,实际上的帮助是否有那么大。
+ |  g' }2 N& H
* U& q. H# w$ k: {4 e* O! J请注意,像 OpenAI、Anthropic 和 Google DeepMind 这样的公司肯定有比 DeepSeek R1 更好的模型。例如,OpenAI 的 o3 模型的基准测试结果相当令人印象深刻,他们可能已经有一个后续模型正在开发中。
2 e! b% b& X) t/ d* n" f' U5 S! R4 \( J, }, ^% M
在此基础上,随着像星门项目以及 OpenAI 即将到来的融资轮等重要额外投资,OpenAI 和其他美国前沿实验室将拥有充足的计算能力,以保持他们的领先地位。
7 |- F+ }9 U8 H3 S7 s6 U, v% |5 X  V* X3 V- |4 W
当然,天朝将向人工智能发展投入大量额外资金。所以总的来说,竞争正在升温!但我认为,美国 AGI 前沿实验室保持领先的道路仍然相当有希望。5 s+ }+ W' R2 `, v  `# R
+ ?& Y1 \; r+ q/ N' u! p
结论: N7 E4 s& K# s1 Y8 t3 j
一方面,一些 AI 人士,尤其是 OpenAI 的一些人,试图淡化 DeepSeek。而另一方面,一些评论家和自称专家对 DeepSeek 又反应过度。1 w: A3 Z1 c& [3 D+ e+ I' |+ D
  m! E3 ]8 |6 z: g' ~( l$ d0 Z
需要指出的是,# R9 k: f. f5 W
OpenAI/Anthropic/Meta/Google/xAI/NVIDIA 等并没有就此完蛋。不,DeepSeek (很可能)没有在说他们所做的事情上撒谎。无论如何必须承认的是:DeepSeek 应得到认可,R1 是一个令人印象深刻的模型。
+ C3 e% C3 }' a5 w! s0 G2 L. C7 ~) T7 z% \( T5 @
avatar
2#
这个真相是需要去了解下了啊。
avatar
3#
管它怎么读呢,各人有各人的理解
avatar
懂得这个方法我非常也是必定收藏起来了的哦。
avatar
主题回复处广告图案-天策传媒
这个楼主的一些看法我是觉得还是挺好的了啊
avatar
看上去老哥的看法是挺有感悟的许多的道理不错
avatar
7#
这个方法行自己好好掌握,也是很棒的。
avatar
8#
感恩大佬的分享,好人一生幸福。
avatar
9#
方法最后一段话觉得是有道理的,但是在我面前就难以实现,毕竟好运太差了。
avatar
你的看法很不错,看论坛的决定了,没想到你的文采这么好
avatar
11#
菠菜肯定有推荐,这是必须的
avatar
12#
感谢您介绍的技巧都不能无视技巧啊
avatar
楼主的这些看法也是要好好看看了,你的用心了的!
avatar
这一次方法在论坛的运气还是值得肯定的.
avatar
15#
我是看完了,老哥后面的看法和提议也是赞同
avatar
搞小一点,就是运气不好,也不会搞的输了,心态肯定好啊
avatar
这样的分享是可以收藏起来,然后学习一下的。
1234下一页
您需要登录后才可以回帖 登录 | 论坛注册

本版积分规则

:) :( :D :'( :@ :o
:P :$ ;P :L :Q :lol
:loveliness: :funk: :curse: :dizzy: :shutup: :sleepy:
:hug: :victory: :time: :kiss: :handshake: :call:
{:8_286:} {:8_287:} {:8_288:} {:8_289:}
{:8_290:} {:8_291:} {:8_292:} {:8_293:}
{:8_294:} {:8_295:} {:8_296:} {:8_297:}
{:8_298:} {:8_299:} {:8_300:} {:8_301:}
{:8_302:} {:8_303:} {:8_304:} {:8_305:}
{:8_306:} {:8_307:} {:8_308:} {:8_309:}
{:8_310:} {:8_311:} {:8_312:}
{:8_313:} {:8_314:} {:8_315:} {:8_316:}
{:8_317:} {:8_318:} {:8_319:} {:8_320:}
:) :( :D :'( :@ :o
:P :$ ;P :L :Q :lol
:loveliness: :funk: :curse: :dizzy: :shutup: :sleepy:
:hug: :victory: :time: :kiss: :handshake: :call:
:) :( :D :'( :@ :o
:P :$ ;P :L :Q :lol
:loveliness: :funk: :curse: :dizzy: :shutup: :sleepy:
:hug: :victory: :time: :kiss: :handshake: :call:
:hug: :victory:
:) :( :D :'( :@ :o
:P :$ ;P :L :Q :lol
:loveliness: :funk: :curse: :dizzy: :shutup: :sleepy:
:hug: :victory: :time: :kiss: :handshake: :call:
:hug: :victory: :time: :kiss: :handshake: :call:
:hug: :victory: :time: :kiss: :handshake: :call:
:hug: :victory: :time: :kiss: :handshake: :call:
:hug: :victory: :time: :kiss: :handshake: :call:
:hug: :victory: :time: :kiss: :handshake:
未有绑定记录
 


Powered by 天策论坛   © 2007-2026 天策论坛 | 小黑屋 | 手机|
1717 : 0