• 邮件反馈
  • 支持 TK
  • 微博

    • 看看最新
    • 随便看看
    • 过去一周
    • 过去一年
  • 精选

    • 净想好事
    • 安全合辑
    • 疫苗合辑
    • 读书合辑
  • 文档

    • 搜索说明
    • 百元好物
    • tk猴子

  • 支持
上个页面看看最新
下个页面过去一周

© Copyright 2025. All rights reserved.

加入tk真爱粉群
tombkeeper

2025-03-24 11:08

在#吴艳妮打破女子60米栏全国纪录#之后,我要说:

t0mbkeeper

2024-08-08 21:53

在吴艳妮取得中国女子 100 米栏奥运最好成绩之后,我要说:
dǎ dù déi [春游家族]
nǎ nù néi [春游家族]
yǐ dà yǐ dà pà pà céi [春游家族]
pà pà céi [春游家族]
diàng diàng déi [春游家族]
yǐ déi yǐ déi nià nià nuéi [春游家族] 🔗t0mbkeeper的微博视频

阅读全文 >
阅读全文 >
tombkeeper

2025-10-19 17:54

补充一下:GLM-4.6 也可以了 //@tombkeeper:现在是2025年10月。不能完成该编程任务的那几个还是不能完成。//@t0mbkeeper:刚才又测了一下。半年之后,不能完成编程任务的那几个还是不能完成。 DeepSeek v3 不仅可以完成而且比 v2.5 的代码质量更高。DeepSeek R1 也行,但不如 v3 完成的漂亮。

t0mbkeeper

2024-12-29 12:46

这几天很多人都表达了对 DeepSeek 3 训练成本大幅降低的惊叹。但也有人说这是“断章取义”,比如认为他们训练的只是 FP8 精度,强调他们训练用了大量高质量合成数据,并认为得到这些数据的过程所消耗的算力也应该算在训练成本里。

看了两边的观点之后我觉得好像都有道理,而我也没有资格在这个问题上做出评价。模型训练是大玩家们的游戏。我们能关注的还是模型应用。实验室的同学已经在测试 DeepSeek 3 了,具体好不好用也还是要用了才知道。

另外,今年夏天的时候,我用我自己设定的测试任务测了一下几个大模型。国内的大模型多数都不能完成我的编程任务(🔗网页链接 🔗网页链接)。只有当时的 DeepSeek 2.5 和另外一个能完成。

阅读全文 >
阅读全文 >
tombkeeper

2021-07-06 20:22

微博盘前狂涨。微博的各位同学要发财了,终于也可以去植发了……

阅读全文 >
tombkeeper

2017-01-02 19:03

回复@liule2017: 目前一千多名员工 //@liule2017:小公司

tombkeeper

2017-01-02 18:45

前阵子听某公司技术负责人讲他们的工程师文化,我总结了一下:
1、不养闲人,选择能“在一起”的人。
2、进人慢,出人快,该淘汰就淘汰。
3、追求技术巅峰,鼓励内部分享。
4、技术上任何人可以挑战任何人,你行你就上。
5、不做技术/语言之争,只看效果。
6、讨论阶段民主,执行阶段专制。

阅读全文 >
阅读全文 >
tombkeeper

2011-09-17 06:33

no sword, no justice

2011-09-16 23:52

抱歉,此微博已被作者删除。查看帮助: 网页链接

阅读全文 >
阅读全文 >
1
...
62896290
6291
62926293
...
6302