2022年的1024

article/2025/9/18 14:31:49

 一年一度的1024来啦!

今年是我的第6个1024.

在这个专属节日里,我想随性记录一下当下的心境吧:

从2016年接触编程以来,自己各方面都有成长,可是不变的是从最初知道自己是小白到现在知道自己还是小白,笑死。

没有了当时的初生牛犊不怕虎,不知天高地厚的自信。

到现在只觉得自己太菜。

实在敲了又删,删了又敲,不知道写什么好,很多想说,又感觉不连贯,那我就随便写写吧,大伙就随便看看,就当我就是个随性的人,

我没有想到暑假期间的文章能给我带来这么多粉丝量,属实在我的预料之外,确实学习了一下别人关于那种长文章案例类的选择粉丝可看再发布可以收获不少粉丝量,这数字摆在这里确实给了我不少信息,怎么说呢,之前的文章都是涨阅读量、点赞量、收藏量,粉丝量涨的有些几乎平底,最近这两个月直接double,确实很高兴。

对于未来的迷茫,其实从未消减,甚至愈演愈烈,敢问路在何方,路在脚下,可是未来的路在岔路口我该怎么选,岔路口有哪些选择?当然了,这些都是未来的事,我现在能做的,大概就是走好脚下的路。

有人说,现在的人大多是活在当下,因为当下已经焦头烂额了,根本没有心思去想太远,可是,话 又说人无远虑必有近忧,当下的焦头烂额就是因为没有长远的目标和规划,才会特别在意当下的得失与感受,这也是为什么很多人很难再坚持去做一件延迟满足的事了,大多喜欢即时满足。

那么怎样去平衡想长远以及活在当下呢?我目前的状态大概是想着,有长远目标,并且珍惜每一个今天,其实两者并不冲突,我们大可以过好每一个今天踏向未来,享受今天的成长与进步与悲欢。

长远的目标太远,我也不知道未来几何,当下的选择大概是当下看似最好的选择,就像我们常说的最优解,但是其实人生的乐趣就在每一个解如果长远来看都未必是最优解,但是变数又是我们可以通过自己的努力把这个解创造成最优解。

前三年大概是每天都在奋斗中,鞭策自己要如何努力,但是今年开始我开始“慵懒”起来,大概也说不上是颓废,不再像之前那样每天早早起床,而是每天满足自己的睡眠,睡醒再说。这有一个极大的弊端就是作息不太规律,同时感觉每天的可用时间变少了。

近年来,感觉学习新知识的速度变慢了、遗忘的速度变快了。

人生路上的长河中,是不是怎样选择都会有遗憾呀?我们能做的大概就是努力让自己不后悔。

突然 对于遗憾和后悔两个词有点感觉:

遗憾,汉语词汇,汉语拼音为 yí hàn,英语是 regret,指不满意、悔恨、不甘心的事情,由无法控制的或无力补救的情况所引起的后悔。

后悔是一个汉语词语,读音:hòu huǐ,意思是对以前没有做的事情或做错了的事情感到难以释怀,心中总是惦记着,想着怎么自己当初没有去做或未做对而不断地感到埋怨和懊恼。

遗憾和后悔又有什么区别呢?

斗志低迷,何去何从?

也没有太多的迷茫不迷茫,未来有大致的方向,每一个今天都在奔向未来。

很多不太重要的事情,不过是生命中一片淡淡的云,一条浅浅的河,飘过了,经过了,也就忘记了。

放眼未来,活在当下,不断成长,不问归期。

祝大家1024程序员节,节日快乐,前程似锦!!!

 

import tkinter as tk
import random
import threading
import timedef dow():window = tk.Tk()width = window.winfo_screenwidth()height = window.winfo_screenheight()a = random.randrange(0, width)b = random.randrange(0, height)window.title('1024')window.geometry("266x50" + "+" + str(a) + "+" + str(b))tk.Label(window,text=' 1024程序员节,节日快乐!',  # 标签的文字bg='#F479EE',  # 背景颜色font=('楷体', 15),  # 字体和字体大小width=266, height=12  # 标签长宽).pack()  # 固定窗口位置window.mainloop()threads = []
for i in range(24):  # 需要的弹框数量t = threading.Thread(target=dow)threads.append(t)time.sleep(0.1)threads[i].start()

 

 

2022年10月24日

在长沙


http://chatgpt.dhexx.cn/article/7T8Qd5n7.shtml

相关文章

1024,鸽了1024篇博文的我。。。

1024,鸽了1024篇博文的我。。。 最近,硕士研究生刚开学,鉴于小菜鸡的我刚开始我的“填坑”之路,很忙,对,真的!!! 我在忙什么? 忙于脑网络的学习&#xff0c…

「1024」福利

重点突出 这不是一篇纯技术文,也不是一篇广告文,而是我和明哥等几个 Android 开发者共同在做的一件事:「Android答疑解惑」。 我们在做一个付费的 Android 圈子,这里可以提供 Android系统层和 Android应用层方面的技术&#xff0c…

浅谈1024

说起1024,大家都知道在数学计算中1GB1024MB,1MB1024KB,1KB1024Byte。 对于程序员来说,接触1024的机会非常多,所以被广大程序员称为:程序员节 浅谈自己的1024 我的第1024行代码 if (devicesBean.getMetadat…

1024 - 在这里起航!

写在前面:博主是一只经过实战开发历练后投身培训事业的“小山猪”,昵称取自动画片《狮子王》中的“彭彭”,总是以乐观、积极的心态对待周边的事物。本人的技术路线从Java全栈工程师一路奔向大数据开发、数据挖掘领域,如今终有小成…

又一年1024 - 我们在路上!

写在前面:博主是一只经过实战开发历练后投身培训事业的“小山猪”,昵称取自动画片《狮子王》中的“彭彭”,总是以乐观、积极的心态对待周边的事物。本人的技术路线从Java全栈工程师一路奔向大数据开发、数据挖掘领域,如今终有小成…

1024——今天我们不加班

今天,是技术人的节日,在二进制构筑的计算机世界里,1024或许是技术人最熟悉的数字。 你知道为什么选择这一天作为中国程序员的共同节日吗? 1024是2的十次方,二进制计数的基本计量单位之一。程序员(英文Programmer)是从…

1024你懂得

1024程序员节是广大程序员的共同节日。1024是2的十次方,二进制计数的基本计量单位之一。针对程序员经常周末加班与工作日熬夜的情况,部分互联网机构倡议每年的10月24日为1024程序员节,在这一天建议程序员拒绝加班。 程序员就像是一个个1024&a…

1024共创程序世界

1024共创程序世界 1024定为程序员节的缘由: 1024是2的十次方,是二进制计数的基本计量单位之一, 也是运行程序的基础,而且1024是程序员常用的数字。 程序员是从事程序开发、程序维护的专业人员。一般将程序员分为程序设计人员和程序编码人员,但两者的界限并不非常清…

什么是1024,为什么是1024?

非常感谢你阅读本文~ 欢迎【👍点赞】【⭐收藏】【📝评论】~ 放弃不难,但坚持一定很酷~ 希望我们大家都能每天进步一点点~ 本文由 二当家的白帽子 https://le-yi.blog.csdn.net/ 博客原创~ 二当家的祝所有的 程序猿/媛 节日快乐,一…

1024,你懂的

哎呀,是不是被标题党套路了,不过认真读完,会有收获的哦,相信我。话说小拾君最近逛知乎,无意间被某些帖子指引,发现知乎已经快被1024攻占了,哈哈,然后今天准备跟大家科普一下1024。各位老司机们看看就好,千万不要开车....... 1024的起源。 经小拾君向诸多老司机求证,以…

smooth L1 loss个人理解

最近在整理目标检测损失函数,特将Fast R-CNN损失函数记录如下: smooth L1 损失函数图像如下所示: L1损失的缺点就是有折点,不光滑,导致不稳定。 L2 loss的导数(梯度)中包含预测值与目标值的差值…

L1和L2范数

L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W的话,就是希望W中非0元素的个数最少,即大部分元素都是0。换句话说,希望让参数W是稀疏的。 L1范数是指向量中各个元素绝对值之和,也有个美称叫“稀疏规则…

L1 loss L2 loss Smooth L1 loss

L1 loss & L2 loss & Smooth L1 loss 微信公众号:幼儿园的学霸 个人的学习笔记,关于OpenCV,关于机器学习, …。问题或建议,请公众号留言; 关于神经网络中L1 loss & L2 loss & Smooth L1 loss损失函数的对比、优缺点分析 目录…

CPU一级缓存L1 D-cache\L1 I-cache与二级缓存L2 cache深度分析

CPU缓存:通过优化的的读取机制,可以使CPU读取缓存的命中率非常高(大多数CPU可达90%左右), 也就是说CPU下一次要读取的数据90%都在缓存(SRAM)中; 只有大约10%需要从内存(DRAM、DDR等&#xff0…

深度学习剖根问底:正则化L1和L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1和L2损失函数

L1和L2损失函数 文章目录 L1和L2损失函数简介L1 损失函数L2 损失函数一个例子代码最后 简介 最近参加了某高校的夏令营面试,被问到一个基础的损失函数的概念,发现自己对于模式识别的掌握可以说不能再皮毛了。夏令营估计是凉了,还是老老实实总…

【86】ASPM进入和退出L1

之前写过一篇power management的介绍,主要是介绍了一下power management的概念,这次主要是介绍下ASPM和ASPM L1机制。 【67】PCIe Power Management和linux对PME的处理_linjiasen的博客-CSDN博客 1、ASPM介绍 ASPM全称Active State Power Management&a…

L1 L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1正则项-稀疏性-特征选择

原文链接: http://chenhao.space/post/b190d0eb.html L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择。 所谓稀疏模型就是模型中很多的参数是0,这就相当于进行了一次特征选择,只留下了一些比较重要的特征&a…

梳理L1、L2与Smooth L1

关于L1、L2的范数、损失函数和正则化,之前一直混淆这几个概念,故对这几天看过的资料进行了学习总结。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性&#xff…