1024——今天我们不加班

article/2025/9/18 15:14:14

今天,是技术人的节日,在二进制构筑的计算机世界里,1024或许是技术人最熟悉的数字。

在这里插入图片描述

你知道为什么选择这一天作为中国程序员的共同节日吗?

1024是2的十次方,二进制计数的基本计量单位之一。程序员(英文Programmer)是从事程序开发、维护的专业人员。程序员就像是一个个1024,以最低调、踏实、核心的功能模块搭建起这个科技世界。1G=1024M,而1G与1级谐音,也有一级棒的意思。

程序员才能看懂的段子~

  1. 去程序员朋友家里蹭住,晚上洗澡时候,翻遍了整个卫生间,都没有找到洗发水,刚想开口问突然眼眶就湿了。

在这里插入图片描述

  1. 程序员A:所以这段代码里面有189个错误?
    程序员B:是的。
    程序员A:我现在修复了一个,所以现在还有188个?
    程序员B:还有238个。
  2. 以前的我:一定还有更优雅的实现方法,这里还可以优化一下。
    现在的我:管他呢,能跑就行
  3. 领导:这个文档你完善一下,下班前发给我
    第二天早上,领导:怎么还没给我?
    我:我还没下班。。。
  4. 程序员爱情观:爱情就是死循环,一旦执行就陷进去了;爱上一个人,就是内存泄漏–你永远释放不了;真正爱上一个人的时候,那就是常量限定,永远不会改变;女朋友就是私有变量,只有我这个类才能调用;情人就是指针用的时候一定要注意,要不然就带来巨大的灾难。

在这里插入图片描述

  1. 程序员简直是世界上最适合谈恋爱的人:他们整天都在思考一个问题:我又哪里做错了。
  2. 推荐java程序员的基本书《java基础篇》《java高级篇》《java编程思想》《大型网站架构》《教你怎么不生气》《沉默的愤怒》《颈椎病康复指南》《活着》
  3. 某女:你能让这个论坛的人都吵起来,我今晚就跟你走。
    某软件工程师:PHP是最好的语言!
    某论坛真的就炸锅了,各种吵架……
    某女:服了你了,我们走吧,你想干啥都行。
    某软件工程师:今天不行,我一定要说服他们,PHP必须是最好的语言……

在这里插入图片描述

  1. 多线程,理想与现实的差距

在这里插入图片描述

  1. 。。。。。。

程序猿是伟大的,程序猿是非凡的,他们创造了代码 ,用代码改变了世界 ,世界就像是一个个1024,在程序员一个个不眠之夜中悄然改变。他们用逻辑勾勒了科技, 用功能便捷了你和我。他们是程序员们,他们用智慧与双手(啪啪啪地)让世界和我们的生活改变!

他们就像是一个个1024,以最低调、踏实、核心的功能模块,一步步搭建起科技世界,让每一行代码都有温度,每一项技术都源自热爱。

他们就是程序员

在这里插入图片描述

他们拥有无与伦比、非常人可比拟的耐力以及超越时代的智商, “生命不息,加班不止” 是他们的座右铭。

他们就是程序员

他们沉默、寡言,眼里仿佛只有 0 和 1,但每年年会时,你会惊讶的发现:说、唱、弹、跳,他们个个都是一等一的好手。格子衫、双肩包、卡其色休闲长裤是他们的“标配”,可一旦他们穿上西装,打上领带,俨然就是丈母娘眼里的“金龟婿”!

他们就是程序员

在这里插入图片描述

加班很多,休息很少,挣得还可以,花得非常少,在浮躁的世界里,他们坚持自己对于知识、技术和创新追求。我们所使用的微信、APP等平台和服务,都是他们辛勤付出的成果。

他们就是程序员

他们是互联网公司的中坚力量,却属于“猝死”高危人群,个人问题无限期延后,社会舆论加诸各种标签:技术宅、加班狗、眼镜男、情商低、品味差、屌丝···但他们对此只是一笑而过。

在这里插入图片描述

他们就是程序员

科比问他们有没有看过凌晨四点的洛杉矶,除了告诉他没有去过洛杉矶外,还可以跟他说凌晨四点我们还没下班。

在这里插入图片描述

他们就是程序员

他们每天被伴侣抱怨没有时间陪她,甚至正常的性生活都没有。最重要的是,他们还得经常提防隔壁每天练腰的老王。

在这里插入图片描述

他们就是程序员

程序员们可能经常加班没时间陪女朋友,可能总是格子衫卡其裤,甚至经常被大众调(坑)侃(黑)…但是程序员们却让世界和我们的生活改变!让我们向程序员致敬,愿程序员们被世界温柔以待!

在这里插入图片描述

1024,我们拒绝恶搞!

1024,我们拒绝低俗!

1024,我们拒绝闷骚!

1024,我们要为自己代言!

我们,就是程序员!!!


http://chatgpt.dhexx.cn/article/GfVIsTp3.shtml

相关文章

1024你懂得

1024程序员节是广大程序员的共同节日。1024是2的十次方,二进制计数的基本计量单位之一。针对程序员经常周末加班与工作日熬夜的情况,部分互联网机构倡议每年的10月24日为1024程序员节,在这一天建议程序员拒绝加班。 程序员就像是一个个1024&a…

1024共创程序世界

1024共创程序世界 1024定为程序员节的缘由: 1024是2的十次方,是二进制计数的基本计量单位之一, 也是运行程序的基础,而且1024是程序员常用的数字。 程序员是从事程序开发、程序维护的专业人员。一般将程序员分为程序设计人员和程序编码人员,但两者的界限并不非常清…

什么是1024,为什么是1024?

非常感谢你阅读本文~ 欢迎【👍点赞】【⭐收藏】【📝评论】~ 放弃不难,但坚持一定很酷~ 希望我们大家都能每天进步一点点~ 本文由 二当家的白帽子 https://le-yi.blog.csdn.net/ 博客原创~ 二当家的祝所有的 程序猿/媛 节日快乐,一…

1024,你懂的

哎呀,是不是被标题党套路了,不过认真读完,会有收获的哦,相信我。话说小拾君最近逛知乎,无意间被某些帖子指引,发现知乎已经快被1024攻占了,哈哈,然后今天准备跟大家科普一下1024。各位老司机们看看就好,千万不要开车....... 1024的起源。 经小拾君向诸多老司机求证,以…

smooth L1 loss个人理解

最近在整理目标检测损失函数,特将Fast R-CNN损失函数记录如下: smooth L1 损失函数图像如下所示: L1损失的缺点就是有折点,不光滑,导致不稳定。 L2 loss的导数(梯度)中包含预测值与目标值的差值…

L1和L2范数

L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W的话,就是希望W中非0元素的个数最少,即大部分元素都是0。换句话说,希望让参数W是稀疏的。 L1范数是指向量中各个元素绝对值之和,也有个美称叫“稀疏规则…

L1 loss L2 loss Smooth L1 loss

L1 loss & L2 loss & Smooth L1 loss 微信公众号:幼儿园的学霸 个人的学习笔记,关于OpenCV,关于机器学习, …。问题或建议,请公众号留言; 关于神经网络中L1 loss & L2 loss & Smooth L1 loss损失函数的对比、优缺点分析 目录…

CPU一级缓存L1 D-cache\L1 I-cache与二级缓存L2 cache深度分析

CPU缓存:通过优化的的读取机制,可以使CPU读取缓存的命中率非常高(大多数CPU可达90%左右), 也就是说CPU下一次要读取的数据90%都在缓存(SRAM)中; 只有大约10%需要从内存(DRAM、DDR等&#xff0…

深度学习剖根问底:正则化L1和L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1和L2损失函数

L1和L2损失函数 文章目录 L1和L2损失函数简介L1 损失函数L2 损失函数一个例子代码最后 简介 最近参加了某高校的夏令营面试,被问到一个基础的损失函数的概念,发现自己对于模式识别的掌握可以说不能再皮毛了。夏令营估计是凉了,还是老老实实总…

【86】ASPM进入和退出L1

之前写过一篇power management的介绍,主要是介绍了一下power management的概念,这次主要是介绍下ASPM和ASPM L1机制。 【67】PCIe Power Management和linux对PME的处理_linjiasen的博客-CSDN博客 1、ASPM介绍 ASPM全称Active State Power Management&a…

L1 L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1正则项-稀疏性-特征选择

原文链接: http://chenhao.space/post/b190d0eb.html L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择。 所谓稀疏模型就是模型中很多的参数是0,这就相当于进行了一次特征选择,只留下了一些比较重要的特征&a…

梳理L1、L2与Smooth L1

关于L1、L2的范数、损失函数和正则化,之前一直混淆这几个概念,故对这几天看过的资料进行了学习总结。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性&#xff…

L1范数与L2范数的区别与联系

L1范数与L2范数的区别与联系 一、过拟合与正则化 过拟合指的就是在机器学习模型训练过程中把数据学习的太彻底,以至于把噪声数据的特征也学习到了,这样会导致在测试的时候不能够很好地识别数据,即不能正确的分类,模型测试的时候不…

L1正则化及其稀疏性的傻瓜解释

本文翻译自:L1 Norm Regularization and Sparsity Explained for Dummies, 特别感谢原作者Shi Yan! 0. 前言 好吧,我想我就是很笨的那一类人。 当理解一个抽象的数学概念,我必须把它转化成一张图像,然后在…

L1/L2范数

文中内容为一下博文整理而来 https://blog.csdn.net/iterate7/article/details/75443504 https://blog.csdn.net/zhaomengszu/article/details/81537197 什么是范数 范数是具有“长度”概念的函数。在向量空间内,为所有的向量的赋予非零的增长度或者大小。不同的范…

机器学习——L1范数充当正则项,让模型获得稀疏解,解决过拟合问题

问:使用L2范数正则项比L1范数正则项得到的是更为稀疏的解。 答:错误,L1范数正则项得到的是更稀疏的解。因为在L1正则项中,惩罚项是每个参数绝对值之和;而在L2正则项中,惩罚项是每个参数平方的和。L1正则项…

L1、L2的作用

L范式都是为了防止模型过拟合,所谓范式就是加入参数的约束。 L1的作用是为了矩阵稀疏化。假设的是模型的参数取值满足拉普拉斯分布。 L2的作用是为了使模型更平滑,得到更好的泛化能力。假设的是参数是满足高斯分布。 借用公众号python与算法社区的内容20…

机器人设计范式

“ 本期技术干货,我们邀请到了小米机器人实验室工程师徐海望,和大家分享在机器人学领域中,关系到机器人的行为模式或操作模型的三种行为执行逻辑,分别是分级范式(hierarchical paradigm)、反应范式&#xf…