1024,鸽了1024篇博文的我。。。

article/2025/9/18 15:13:15

1024,鸽了1024篇博文的我。。。

最近,硕士研究生刚开学,鉴于小菜鸡的我刚开始我的“填坑”之路,很忙,对,真的!!!

在这里插入图片描述

我在忙什么?

忙于脑网络的学习,还有神经网络架构方面的研究摸索。。。那么本文会很干嘛?不,没有,莫得时间写“硬干”文,所以这篇博客给大家分享一些我收藏的不错的网站

不想听菜鸡废话的→直接截图↓
超分辨率、原创、二次元、三次元壁纸网站https://wallhaven.cc/latest?page=2
超分辨率、高速稳定的电影&追剧网站https://ddrk.me//
日更、连载、高速稳定的追番网站http://www.zzzfun.com/
全球实时摄像头(罗马、伦敦、纽约…)https://www.skylinewebcams.com/
一个可以在线制作换脸视频的网站https://myvoiceyourface.com/
领略数学公式的图形之美,在线DIY体验的网站https://www.desmos.com/?lang=zh-CN
感受数字媒体交互艺术之美,非常惊艳的网站https://www.desmos.com/?lang=zh-CN
P5.js制作的动态数字媒体艺术https://wangyasai.github.io/designtools.html

第一个,超清,二次元,三次元,无马绝美的壁纸网站-https://wallhaven.cc/latest?page=2

在这里插入图片描述

大家尽管冲吧,里面所有的图片都是免费无版权,可以直接使用的,至于可不可以商用不清楚。

第二个网站,超清,典藏,小众,精品,无马的高质量电影以及追剧网站,https://ddrk.me//。(速度快,清晰度高,适合收藏

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

第三个网站,对于资深动漫二次元的老司机们的必备神站—http://www.zzzfun.com/。

在这里插入图片描述
在这里插入图片描述

不想多说,直接冲吧,帅小伙们,搞起!!!∑(゚Д゚ノ)ノ

第四个网站,在我们学习乏力,身体疲惫的时候,就看看这个有趣的网站,看看这个世界上不同角落的景色—https://www.skylinewebcams.com/(全球实时摄像头,记录世界的眼睛

在这里插入图片描述
在这里插入图片描述

第五个网站,一个可以在线制作换脸视频的网站,搞起!——https://myvoiceyourface.com/

在这里插入图片描述

第六个网站,领略数学公式的图形之美,在线体验—https://www.desmos.com/?lang=zh-CN

在这里插入图片描述
在这里插入图片描述

第七个网站,感受数字媒体交互艺术之美非常惊艳,你值得拥有——https://www.desmos.com/?lang=zh-CN

在这里插入图片描述
在这里插入图片描述

第八个网站,P5.js 制作的 动态数字媒体艺术 ——https://wangyasai.github.io/designtools.html

在这里插入图片描述

鸽了你们很多文章的菜鸡,不知何时能够填上这些坑,但愿,我们一起努力,加油,点赞过100,就更新我平时学习使用的各大视频资源网站及资料收集网站、还有提问网站

祝大家1024快乐,要开心,要健康,要头发,要本子─(━ _ ─━✧)!!!

在这里插入图片描述


http://chatgpt.dhexx.cn/article/tCPn7Ca5.shtml

相关文章

「1024」福利

重点突出 这不是一篇纯技术文,也不是一篇广告文,而是我和明哥等几个 Android 开发者共同在做的一件事:「Android答疑解惑」。 我们在做一个付费的 Android 圈子,这里可以提供 Android系统层和 Android应用层方面的技术&#xff0c…

浅谈1024

说起1024,大家都知道在数学计算中1GB1024MB,1MB1024KB,1KB1024Byte。 对于程序员来说,接触1024的机会非常多,所以被广大程序员称为:程序员节 浅谈自己的1024 我的第1024行代码 if (devicesBean.getMetadat…

1024 - 在这里起航!

写在前面:博主是一只经过实战开发历练后投身培训事业的“小山猪”,昵称取自动画片《狮子王》中的“彭彭”,总是以乐观、积极的心态对待周边的事物。本人的技术路线从Java全栈工程师一路奔向大数据开发、数据挖掘领域,如今终有小成…

又一年1024 - 我们在路上!

写在前面:博主是一只经过实战开发历练后投身培训事业的“小山猪”,昵称取自动画片《狮子王》中的“彭彭”,总是以乐观、积极的心态对待周边的事物。本人的技术路线从Java全栈工程师一路奔向大数据开发、数据挖掘领域,如今终有小成…

1024——今天我们不加班

今天,是技术人的节日,在二进制构筑的计算机世界里,1024或许是技术人最熟悉的数字。 你知道为什么选择这一天作为中国程序员的共同节日吗? 1024是2的十次方,二进制计数的基本计量单位之一。程序员(英文Programmer)是从…

1024你懂得

1024程序员节是广大程序员的共同节日。1024是2的十次方,二进制计数的基本计量单位之一。针对程序员经常周末加班与工作日熬夜的情况,部分互联网机构倡议每年的10月24日为1024程序员节,在这一天建议程序员拒绝加班。 程序员就像是一个个1024&a…

1024共创程序世界

1024共创程序世界 1024定为程序员节的缘由: 1024是2的十次方,是二进制计数的基本计量单位之一, 也是运行程序的基础,而且1024是程序员常用的数字。 程序员是从事程序开发、程序维护的专业人员。一般将程序员分为程序设计人员和程序编码人员,但两者的界限并不非常清…

什么是1024,为什么是1024?

非常感谢你阅读本文~ 欢迎【👍点赞】【⭐收藏】【📝评论】~ 放弃不难,但坚持一定很酷~ 希望我们大家都能每天进步一点点~ 本文由 二当家的白帽子 https://le-yi.blog.csdn.net/ 博客原创~ 二当家的祝所有的 程序猿/媛 节日快乐,一…

1024,你懂的

哎呀,是不是被标题党套路了,不过认真读完,会有收获的哦,相信我。话说小拾君最近逛知乎,无意间被某些帖子指引,发现知乎已经快被1024攻占了,哈哈,然后今天准备跟大家科普一下1024。各位老司机们看看就好,千万不要开车....... 1024的起源。 经小拾君向诸多老司机求证,以…

smooth L1 loss个人理解

最近在整理目标检测损失函数,特将Fast R-CNN损失函数记录如下: smooth L1 损失函数图像如下所示: L1损失的缺点就是有折点,不光滑,导致不稳定。 L2 loss的导数(梯度)中包含预测值与目标值的差值…

L1和L2范数

L0范数是指向量中非0的元素的个数。如果我们用L0范数来规则化一个参数矩阵W的话,就是希望W中非0元素的个数最少,即大部分元素都是0。换句话说,希望让参数W是稀疏的。 L1范数是指向量中各个元素绝对值之和,也有个美称叫“稀疏规则…

L1 loss L2 loss Smooth L1 loss

L1 loss & L2 loss & Smooth L1 loss 微信公众号:幼儿园的学霸 个人的学习笔记,关于OpenCV,关于机器学习, …。问题或建议,请公众号留言; 关于神经网络中L1 loss & L2 loss & Smooth L1 loss损失函数的对比、优缺点分析 目录…

CPU一级缓存L1 D-cache\L1 I-cache与二级缓存L2 cache深度分析

CPU缓存:通过优化的的读取机制,可以使CPU读取缓存的命中率非常高(大多数CPU可达90%左右), 也就是说CPU下一次要读取的数据90%都在缓存(SRAM)中; 只有大约10%需要从内存(DRAM、DDR等&#xff0…

深度学习剖根问底:正则化L1和L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1和L2损失函数

L1和L2损失函数 文章目录 L1和L2损失函数简介L1 损失函数L2 损失函数一个例子代码最后 简介 最近参加了某高校的夏令营面试,被问到一个基础的损失函数的概念,发现自己对于模式识别的掌握可以说不能再皮毛了。夏令营估计是凉了,还是老老实实总…

【86】ASPM进入和退出L1

之前写过一篇power management的介绍,主要是介绍了一下power management的概念,这次主要是介绍下ASPM和ASPM L1机制。 【67】PCIe Power Management和linux对PME的处理_linjiasen的博客-CSDN博客 1、ASPM介绍 ASPM全称Active State Power Management&a…

L1 L2范式

正则化(Regularization) 机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。 L1正…

L1正则项-稀疏性-特征选择

原文链接: http://chenhao.space/post/b190d0eb.html L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型,可以用于特征选择。 所谓稀疏模型就是模型中很多的参数是0,这就相当于进行了一次特征选择,只留下了一些比较重要的特征&a…

梳理L1、L2与Smooth L1

关于L1、L2的范数、损失函数和正则化,之前一直混淆这几个概念,故对这几天看过的资料进行了学习总结。 范数(norm)是数学中的一种基本概念。在泛函分析中,它定义在赋范线性空间中,并满足一定的条件,即①非负性&#xff…

L1范数与L2范数的区别与联系

L1范数与L2范数的区别与联系 一、过拟合与正则化 过拟合指的就是在机器学习模型训练过程中把数据学习的太彻底,以至于把噪声数据的特征也学习到了,这样会导致在测试的时候不能够很好地识别数据,即不能正确的分类,模型测试的时候不…