现在,99.9%以上的代码都是从GitHub复制贴上毫无用处的垃圾

现在,99.9%以上的代码都是从GitHub复制贴上毫无用处的垃圾

作为一名从事独立游戏设计和编程业务的开发者,克里夫斯基(Cliffski)在一篇文章中吐槽道 —— 这年头的「代码膨胀」,已经到了令人发指的地步。 以下为他吐槽的全文:

偶然的一次,我需要使用网络硬盘服务,就是把档案上传到某个地方(具体是哪家厂商就不说了,反正都一样)。 这只一个非常简单的操作,首先将硬盘上某个文件夹里的文件复制到远程服务器,然后再执行一些数据库操作,为文件起个名字,然后提供给下载,仅此而已。

提供网络硬盘空间的是一家大公司,规模很大,每天应该有不少黑客攻击,所以他们需要一些安全措施,上传和下载的时候还得验证档案是否被篡改等等,这都没问题。

但是,最基本的功能只不过是列出档案、读取档案、上传档案,然后关闭连接,在日志里写上成功,或者出错的话在日志里写出错误原因。 这又不是火箭科技,实际上我自己用wininet API写这段代码 ,服务器用PHP和MySQL,尽管达不到企业级,但也能支持几十万档案的上传、下载和日志记录——一个人写代码 大概也就是两三周的工作量?

然而,我用的那个专用上传工具的客户端软件总共有230MB,包含2700多个档案。

是的,你没看错,2700多个档案,237MB的可执行文件和各种垃圾,仅仅是为了把文件拷贝到服务器而已。 这已经不能叫膨胀了,更不是过度设计,这完完全全到了不可理喻的地步。

实际上,不光是这个上传工具,如今任何大型软件公司的任何软件都一样。

电脑里 99.9% 以上的代码都是毫无用处的垃圾

我知道怎么回事,我也见过其他程序员的做法。 根本原因在于,程序员根本不懂怎样通过高效率的底层代码 来实现目标,他们甚至从来没见过底层的高效代码 。 没见过的东西怎么可能做得出来,还要做得更好呢?

编写一个安全、快速上传文件到服务器的软件,最多需要二十分之一的程序量。 只需要一个档案,一个exe文件就够了,根本不需要好几百个DLL。 这是完全可能的,而且会更容易、更可靠、效率更高,还很容易调试,甚至能更稳定地工作。

代码膨胀似乎是像我这种老家伙的碎碎念,毕竟我已经上年纪了。 但我们这帮老家伙们碎碎念的可不是代码执行减慢了50%、规模增大了50%。 实际情况远不止于此。

我相信你电脑里99.9%以上的代码都是毫无用处的垃圾,永远不会被运行。 但这些代码都堆在那儿,堆在65个DLL里,这都是因为程序员想做一些不太重要的事情,比如保存一张图片,但他们完全不懂得该怎么做,就干脆导入一大堆垃圾来完成。

我说过,看着年轻程序员这样做我真不应该生气,毕竟他们学到的实现方式就是这样的。 他们根本不知道高性能开发是什么样子,也没见过条件有限的软件是什么样子。 你要是告诉他们,最初的Elite游戏能产生整个银河系,有3D狗斗,有职业系统,交易系统,还能探索上千个星球,而这一切只有64KB,他们也能接受,但完全没办法理解这与现在的软件之间有什么差距。

CPU和内存都有限才是编程的黄金时代

为什么我关心这件事? 原因有很多,最简单的就是当你花费两千倍的时间来做一个东西,它就应该能用。 但更重要的是,我知道99.9%的CPU时间都浪费在这些垃圾上。 每秒执行几十万指令,结果毫无用处。 本来我的电脑应该处于极低功耗,风扇都不应该转,因为我现在干的只不过是在wordpress里写字而已。

现在的电脑速度飞快,确实是魔法。 你能想到的一切,都能在屏幕更新一次的1/60秒内完成。 但是! 当我在Surface笔记本电脑(几乎是新的! )上点选硬盘图标时,我能看到明显的延迟,电脑在一点点画出用户界面。 这需要很久,我估计至少有半秒钟,对于CPU来说这就像几十亿年那么长。

如果我没猜错,因为电脑里有99%的垃圾,99%的电力都被浪费了,这已经不能用犯罪来形容了。 这些浪费的电力都干什么了? 我不知道,但看看工作管理员就知道了:一大堆不知道是什么也不知道在干什么的东西。

我现在只不过写篇文章,Windows就要运行102个后台行程。 NVidia显示卡有6个行程,一些甚至还有子行程。 干嘛呢? 我又没玩游戏,对于显卡来说我现在干的事儿跟20年前没什么差别,但就是要6个行程。

微软的Edge浏览器也有6个行程,它的Web View还有6个。 我甚至都没打开Edge。 可能是我昨天开了一张SVG图,这就出现了12个毫无用处的行程在那儿浪费内存和CPU? 这简直不可理喻。

这就是为什么一切都不能正常工作,为什么一切都很慢,为什么你每年都要买新手机和新电视,买新的只不过是为了执行更多垃圾程序而已。

我悲观地认为,事情只会越来越糟,因为像Facebook、推特、Reddit这些笨头笨脑的巨无霸公司正是现在的趋势。 每个公司都有好几千位「程序员」,使用机器学习从GitHub复制粘贴这些毫无用处的垃圾代码 。 两个数相加就要使用32个DLL和16个Windows服务还有几亿行代码 。

推特有两千个程序员。 但Tweetdeck偶尔还是无法加载某个用户的时间线。 这个bug已经有四年多了,我猜没人知道为什么,背后的代码只不过是一堆复制贴上的垃圾。

再说Reddit,从链接读取标题的功能无法正确处理&和分号,这都2022年了。 他们大概也有2000多个程序员,但甚至没人会写文本分析器,所以他们拿钱是干什么的?

曾经CPU和内存都有限的那个时代,才是编程的黄金时代; 而现在,我们生活在一堆毫无效率的垃圾里。

嗚呼哀哉!

(1)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表回复

登录后才能评论