又一年1024 - 我们在路上!

article/2025/9/18 15:15:29

写在前面:博主是一只经过实战开发历练后投身培训事业的“小山猪”,昵称取自动画片《狮子王》中的“彭彭”,总是以乐观、积极的心态对待周边的事物。本人的技术路线从Java全栈工程师一路奔向大数据开发、数据挖掘领域,如今终有小成,愿将昔日所获与大家交流一二,希望对学习路上的你有所助益。同时,博主也想通过此次尝试打造一个完善的技术图书馆,任何与文章技术点有关的异常、错误、注意事项均会在末尾列出,欢迎大家通过各种方式提供素材。

  • 对于文章中出现的任何错误请大家批评指出,一定及时修改。
  • 有任何想要讨论和学习的问题可联系我:zhuyc@vip.163.com。
  • 发布文章的风格因专栏而异,均自成体系,不足之处请大家指正。

又一年1024 - 我们在路上!

本文关键字:1024、程序员节、技术社区、个人成长

文章目录

  • 又一年1024 - 我们在路上!
    • 一、那年今日
      • 1. 杨帆起航
      • 2. 笔耕不辍
    • 二、我的故事
      • 1. 心路历程
      • 2. 我与平台
    • 三、厚积薄发

本来好不容易有时间可以更新一篇技术博客,但是十分不巧,又赶上了一年一度的程序员节,只能再随笔一篇文章了,我真是太难(开)受(心)了,竟然忍不住笑出了声。。。噗哈哈哈哈。
粉丝甲乙丙丁:我信你个鬼!!!再不更新干货信不信我差评、取关、举报,让你感受别样的三连???
咳。。。在下写文章的时候需要绝对的专注,嗯,对,就是这样,所以先溜了哈。。。

一、那年今日

时间真的过的好快,转眼间一年就这样过去了,还记得那年今日立下的Flag,要在CSDN打下一片江山,如今看来也算是做到了,更重要的是能够因此帮到很多人也很开心~

1. 杨帆起航

还记得当初信心满满,还特意为自己做了一张海报,以壮声势~如今看来还是有些自我了,从江河进入大海,才会感觉到自己的渺小,但是也正是因为这样,我们才会看到更为广阔的世界。

话不多说了,去年1024的文章链接在此,主要是对自己的介绍和在CSDN开宗立派的宣言:1024 - 在这里起航!

2. 笔耕不辍

那么,现在来检讨一下自己,为什么要检讨呢,先看一下这张图:

虽然每个月都有更新,但是不算稳定,这个确实是自己太忙了,而且后面开始为博客配视频也要花很多精力,都是利用空闲时间。客观上好像也说的过去。。。但是看了这些数据真的觉得对不起大家:

虽然目前在CSDN只是一个小博主,但是几十篇文章就得到两千多个赞对我真的是很大的鼓励。当然,这里也有我分享文章帮大家解决问题之后厚着脸皮要的赞,实锤实锤,我是一头厚脸皮的猪。所以在接下来的时间里,一定给大家带来更成体系,更优质的文章,有必要也会进行翻新。

二、我的故事

这篇文章会继续为大家讲述我个人成长的经历,希望对大家有所启发,当然,如果是说过的内容就请大家进入传送门啦~

1. 心路历程

大家在开头的介绍中应该对我的职场生涯有了一定了解,最初是以一个开发者的身份踏入职场,从事Java开发,后来读研回炉重造,推开了大数据领域的大门,继续从事了一段开发工作后,最终实现了儿时的梦想,如愿的成为了一名讲师,具体的故事大家可以进传送门:从开发者到讲师的心路历程(结尾有彩蛋)。那么这一篇文章主要是想和大家分享一下,开发者、讲师与平台的关系,可以做怎样的经营

2. 我与平台

在讲述之前,有必要先给自己浇上一大盆冰水,先客观的说明一下自己当前的情况。从我自己个人来说,也只不过是一个默默无闻的平凡者,每天幸运的做着喜欢的事,所以接下来想和大家分享的也许是我发自心底的快乐~

  • 意气风发

有人说成长就是不断跌倒和爬起的过程,多年以后我自己也认识到了这句话。之所以跌倒是因为不够脚踏实地或能力不足,但适当的跌倒可以让我们更快速的成长。

最初,在学习和掌握了很多技术以后,就觉得自己可以独立作出很多东西,做一些自己独创的小玩意儿,做一个自己的博客网站,这些想法是抑制不住的。经过了很多的尝试也踩了很多技术的坑,域名、服务器/虚拟主机、开发部署,最后也只是满足了自己的热情和好奇心,开始思考做这些东西的意义是什么,毕竟学生时代本身就没有多少银子。
如果想做一个自己的技术社区,那么说到底这并不是一个产出原创文章和博客网站技术升级的问题,重点还是在于营造一个氛围和有一定的活跃。当然,如果你并不关心这些,只是单纯想做一个自己喜欢的东西或自己学到的东西分享于众那就另当别论。就算是做给自己心仪的小朋友,直接一个链接丢过去,说:This is only for you!想来也是棒棒的~
在云服务商白吃了自己几年费用之后发现,自己做的东西除了花费时间和金钱并没有太大的收获,当然主要原因还是因为自己太菜,毕竟只是平凡的大多数。按照自己之前的想法,入驻到平台并没有专属感,但其实是忽略了自己是更加渺小的这一事实,所以为什么不借个势呢

  • 按部就班

刚开始只是作为一个普通的使用者,遇到技术问题摆摆渡,鼓鼓鸽,时不时就会看到不少博客链接的地址。有的高频问题阅读量爆棚,尽管可能只有寥寥的几句话,但是却能直接解决问题。之前也有很多小伙伴儿一起探讨如何能写出大家爱看的文章?
其实对于这个问题每个人都有不同的看法,但是我觉得只要从结果出发:只要这是一篇能让人学到东西、解决问题、有所收获的文章,那就是好文章。每个人写出的文章都有各自的风格,在保证结果的情况下,去让文章的结构尽量清晰,内容尽量细致,语言尽量凝练,相信会有相应的读者喜欢的。不得不说,这个时候讲师的职业病总算起了点好作用。。。
所以在一开始的时候并不需要考虑太多,按部就班的去做,即使阅读量并不怎么样,即使看到大佬的爆文羡慕的流口水,但是想要收获结果总是要有一定的坚持,付出一定的时间,并且这些对自己都是有好处的,后文再表。

  • 心有波澜

等你真正开始写文章或者发布自己的课程,你就会发现自己的关注点有了些些的变化。之前看到别人的文章主要看的是内容,现在就忍不住先瞟一眼粉丝数、文章阅读量,然后再回头看看自己的,忍不住去想如果自己来写这个问题会怎么写,原来大家爱看的是这样的文章吗?
有的时候想写一篇文章,也在考虑,要不要也来个“吊打XXX系列”、“深夜不睡觉竟然在厕所看XXX系列”?但是想想,一来自己技术达不到,吊打不了;二来也没有那个讲故事的能力,标题党估计是不可能标题党了,还是老老实实的编织自己的文章体系吧。
毛毛躁躁的过了一段时间,后来发现自己也是有够搞笑,为什么要有意无意的去比较呢,本来是一件分享知识的事情却变得顾虑重重,所谓功到自然成,这里希望刚刚开始写博客的小伙伴能保持住向上的势头,最后一定会收获满满。

  • 受益匪浅

最后就来说说在各大平台的收获吧,在之前的文章中也有过一些涉及。首先就是写作的平台,我选择CSDN是因为有排名、奖章和各种激励机制,其他的方面就是可以及时的反应诉求,有一种和平台一起成长的感觉。
对于写作本身,一个是最为笔记的记录,另外一点就是可以提升自己总结归纳的能力,无形中也能锻炼思维能力,这是直接作用在本体上的好处。除此之外,博客也能丰富你的简历,让面试官看到你的技术积淀和技术栈,但是文章数量如果还比较少的话就不建议添加了。

在收获了一定的流量之后,也会带来各种合作的机会,如平台约稿,偶尔也许还可以恰个饭,无论是项目开发还是产品博文都是可以比较轻松获得的收入,在吃泡面的时候潇洒的给自己加个蛋是绝对没有问题的。
最重要的,可以以点带面,以此为基础可以打通你认为可以互通的平台,比如B站,在CSDN的文章中可以方便的嵌入(也可以以此为基础扩展到视频教程录制)。达到了一定的规模,就可以考虑变现的问题或者考虑发展为副业,并不需要投入太多的精力就可以获得收入。

三、厚积薄发

那么最后还是说说我自己吧,我一直觉得“博观而约取,厚积而薄发”很有道理,可能又是因为讲师的职业病吧。。。无论是学习技术还是知识的分享都应该是谨慎的态度,做自己喜欢的事情更值得用心去浇灌~这不,全新的社区已经内测上线了,感觉自己又可以大展拳脚了。

在这里各位小伙伴儿可以直接发帖提问呢~还可以看到博主发表的博客、上传的资源、发布的视频(后续会添加)。同时,作为提前进行变身测试的在下获得了和运营小姐姐直接对线的机会,大家有任何的问题也可以积极反馈哦(有图有真相)!


扫描下方二维码,加入官方粉丝微信群,可以与我直接交流,还有更多福利哦~

在这里插入图片描述


http://chatgpt.dhexx.cn/article/t6mSVuw6.shtml

相关文章

1024——今天我们不加班

今天,是技术人的节日,在二进制构筑的计算机世界里,1024或许是技术人最熟悉的数字。 你知道为什么选择这一天作为中国程序员的共同节日吗? 1024是2的十次方,二进制计数的基本计量单位之一。程序员(英文Programmer)是从…

1024你懂得

1024程序员节是广大程序员的共同节日。1024是2的十次方,二进制计数的基本计量单位之一。针对程序员经常周末加班与工作日熬夜的情况,部分互联网机构倡议每年的10月24日为1024程序员节,在这一天建议程序员拒绝加班。 程序员就像是一个个1024&a…

1024共创程序世界

1024共创程序世界 1024定为程序员节的缘由: 1024是2的十次方,是二进制计数的基本计量单位之一, 也是运行程序的基础,而且1024是程序员常用的数字。 程序员是从事程序开发、程序维护的专业人员。一般将程序员分为程序设计人员和程序编码人员,但两者的界限并不非常清…

什么是1024,为什么是1024?

非常感谢你阅读本文~ 欢迎【👍点赞】【⭐收藏】【📝评论】~ 放弃不难,但坚持一定很酷~ 希望我们大家都能每天进步一点点~ 本文由 二当家的白帽子 https://le-yi.blog.csdn.net/ 博客原创~ 二当家的祝所有的 程序猿/媛 节日快乐,一…

1024,你懂的

哎呀,是不是被标题党套路了,不过认真读完,会有收获的哦,相信我。话说小拾君最近逛知乎,无意间被某些帖子指引,发现知乎已经快被1024攻占了,哈哈,然后今天准备跟大家科普一下1024。各位老司机们看看就好,千万不要开车....... 1024的起源。 经小拾君向诸多老司机求证,以…

smooth L1 loss个人理解

最近在整理目标检测损失函数,特将Fast R-CNN损失函数记录如下: smooth L1 损失函数图像如下所示: L1损失的缺点就是有折点,不光滑,导致不稳定。 L2 loss的导数(梯度)中包含预测值与目标值的差值…

L1和L2范数

L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W的话,就是希望W中非0元素的个数最少,即大部分元素都是0。换句话说,希望让参数W是稀疏的。 L1范数是指向量中各个元素绝对值之和,也有个美称叫“稀疏规则…

L1 loss L2 loss Smooth L1 loss

L1 loss & L2 loss & Smooth L1 loss 微信公众号:幼儿园的学霸 个人的学习笔记,关于OpenCV,关于机器学习, …。问题或建议,请公众号留言; 关于神经网络中L1 loss & L2 loss & Smooth L1 loss损失函数的对比、优缺点分析 目录…

CPU一级缓存L1 D-cache\L1 I-cache与二级缓存L2 cache深度分析

CPU缓存:通过优化的的读取机制,可以使CPU读取缓存的命中率非常高(大多数CPU可达90%左右), 也就是说CPU下一次要读取的数据90%都在缓存(SRAM)中; 只有大约10%需要从内存(DRAM、DDR等&#xff0…

深度学习剖根问底:正则化L1和L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1和L2损失函数

L1和L2损失函数 文章目录 L1和L2损失函数简介L1 损失函数L2 损失函数一个例子代码最后 简介 最近参加了某高校的夏令营面试,被问到一个基础的损失函数的概念,发现自己对于模式识别的掌握可以说不能再皮毛了。夏令营估计是凉了,还是老老实实总…

【86】ASPM进入和退出L1

之前写过一篇power management的介绍,主要是介绍了一下power management的概念,这次主要是介绍下ASPM和ASPM L1机制。 【67】PCIe Power Management和linux对PME的处理_linjiasen的博客-CSDN博客 1、ASPM介绍 ASPM全称Active State Power Management&a…

L1 L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1正则项-稀疏性-特征选择

原文链接: http://chenhao.space/post/b190d0eb.html L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择。 所谓稀疏模型就是模型中很多的参数是0,这就相当于进行了一次特征选择,只留下了一些比较重要的特征&a…

梳理L1、L2与Smooth L1

关于L1、L2的范数、损失函数和正则化,之前一直混淆这几个概念,故对这几天看过的资料进行了学习总结。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性&#xff…

L1范数与L2范数的区别与联系

L1范数与L2范数的区别与联系 一、过拟合与正则化 过拟合指的就是在机器学习模型训练过程中把数据学习的太彻底,以至于把噪声数据的特征也学习到了,这样会导致在测试的时候不能够很好地识别数据,即不能正确的分类,模型测试的时候不…

L1正则化及其稀疏性的傻瓜解释

本文翻译自:L1 Norm Regularization and Sparsity Explained for Dummies, 特别感谢原作者Shi Yan! 0. 前言 好吧,我想我就是很笨的那一类人。 当理解一个抽象的数学概念,我必须把它转化成一张图像,然后在…

L1/L2范数

文中内容为一下博文整理而来 https://blog.csdn.net/iterate7/article/details/75443504 https://blog.csdn.net/zhaomengszu/article/details/81537197 什么是范数 范数是具有“长度”概念的函数。在向量空间内,为所有的向量的赋予非零的增长度或者大小。不同的范…

机器学习——L1范数充当正则项,让模型获得稀疏解,解决过拟合问题

问:使用L2范数正则项比L1范数正则项得到的是更为稀疏的解。 答:错误,L1范数正则项得到的是更稀疏的解。因为在L1正则项中,惩罚项是每个参数绝对值之和;而在L2正则项中,惩罚项是每个参数平方的和。L1正则项…

L1、L2的作用

L范式都是为了防止模型过拟合,所谓范式就是加入参数的约束。 L1的作用是为了矩阵稀疏化。假设的是模型的参数取值满足拉普拉斯分布。 L2的作用是为了使模型更平滑,得到更好的泛化能力。假设的是参数是满足高斯分布。 借用公众号python与算法社区的内容20…