在最初级别的AI训练中,想要AI能正确分辨与训练集同源的检测集(相当于AI是否训练成功的考试题),甚至会需要10倍甚至更多倍数量于检测集的训练集(比人类为了通过考试刷题库的效率还低)。
而这一训练量与分辨能力的比值,即使是加强型机器学习的算法不断提升的当下,也很难突破1:1。
所以现在很多AI公司,最重视的就是可以被AI训练使用的训练集。
各种AI企业会在用户协议中添加,允许其使用用户在使用产品时被动反刍出来的数据的条款,就是因为这一点。
当然,由于训练集的重要性,研究者一直在试图绕过人类反刍这一事实上是当前AI发展最大瓶颈的过程。
其中的方法很多,包括给AI提供基础的规则后,让AI自行生产可以用来学习的训练集,比如第二代阿尔法狗,通过自己和自己对弈生产棋谱,来学习围棋下法的方案。
以及通过训练一个通用性的,可以理解人类既有文献的大模型,为其他专业模型生产训练集等。
而后者正是现在所谓AI语言大数据模型铺天盖地的原因之一。
只是这种试图一劳永逸的为专业AI生成一个,类似于汇编语言在编程语言和机器语言之间作用的大模型的难度,显然很高。
并且这一技术路线,不止面临技术问题,还面临很多政治、伦理问题。
即相比专业化的AI生产工具,存在真专业壁垒保障安全,这类直接获取文字这一代表文明基础的AI,会更容易产生“天网”问题。
因为AI训练的本质,是一种黑箱化的随机归类过程,人类虽然暂时无法彻底理清训练过程,但依然可以抓到一些既有的规律。
这会让这类AI在事实上受到训练集的影响,并产生所谓“人格”倾向——和很多此类AI对话,使用一些技巧就可以让这些AI对于一些错误观念深信不疑。
而这背后意味着什么,很多科幻电影已经给出了答案。
而且更为令人不寒而栗的是,最新的研究结果显示,不在训练集中添加人类伦理观念,会大幅提升AI学习的速度。
这暗示了,如果人类真的希望能搞一个跨时代的AI出来,就必须减少现在对AI训练过程的道德限制。
这种限制、效率、安全的不可能三角,甚至导致了OpenAI(ChatGPT的开发公司)创始人之间的分道扬镳。
对此,AI激进派中的保守者——主张取消训练集中的道德限制,另找其他方案保障AI安全的研究者,为解决这一问题提出的一个方案,已经在OpenAI最新的产品中落实。
即将初步训练过程置于沙箱,并彻底封闭,然后对生产出来的基础AI添加监管后,再组装成最终的AI——颇有一种赛博朋克世界黑墙的意味。
而这种将初步训练结果彻底封闭的操作,还顺路彻底断了一种被称为数据蒸馏的取巧手段。
后者也是国内很多AI公司被诟病为抄袭者的关键,那就是使用一个成熟的大数据AI,为他们的AI生成训练集(需要初步训练结果)。
这样可以让新的AI,以更高效的方式训练,并且训练出来的AI运行时所需要的花费更少。
当然,代价是新AI某种程度上,只是原先AI的子体罢了。
很多通过ChatGPT数据蒸馏出来的AI,最初被发现,就是因为询问一些特殊问题后,后者的回答会和ChatGPT完全一样。
2、与薯条君同源
指玩家们当前正处在薯条君刚刚进入“游戏”时的玄学力量觉醒阶段,刚好可以替代薯条君完成对于信息封装物的初步判读,以降低薯条君在这方面的工作压力。
同时这也是其他薯条旅成员不参与这种判读工作的原因,因为对于后者来说,这种初级工作是在浪费其能力。
3、爬山党
指那些喜欢通过各种技巧,前往游戏设计者并不希望玩家到达的地方的玩家。
4、铸造世界也无法给出具体设计图
事实上由于建造、使用、改造的时间跨度都很长,战锤40k的人类大型舰船,即使没有经过大铁陀要塞经历的事件,也很难找到能够覆盖所有通道的具体设计图。
因为很多通道,自建造出厂后,可能已经有上千年没人使用过了。
5、玄学力量暴走的危险现象
尽管金红色纪念碑主体,是被净化转为正向的恐虐神域,其也依然像恐虐会沦为负面情绪集合体一样,存在再次转向的可能。
6、薯条君的“漏洞”
指薯条君虽然已经有意的控制了玩家们获取功勋的速度,并试图以此控制加入“游戏”的玩家数量,不会超过薯条旅时空信念体所能负担的极限。
但由于“牛爷爷”背后神秘势力的“职业化”操作,玩家数量的增幅速度,最终还是超过了薯条君的预计。
并且更多神秘势力开始努力破解“军功章”节点的操作,更是会让玩家连在未来出现一些,远远超出薯条君认识的情况。)