手机浏览器扫描二维码访问
比如正确标签是“猫的概率100%,狗0%,汽车0%”,机器的答案是“猫30%,狗60%”,那误差就很大——损失函数会用数学方法算出这个误差的具体数值,比如误差值是0.8(数值越大,错得越离谱)。
4. 第四步:“改错题”——反向传播,调整参数
知道错了,就得改——这一步是深度学习的核心,叫“反向传播”。简单说,就是“从输出层往回推,看哪个参数错了,怎么改能让误差变小”。
比如机器算错“猫”的概率,可能是因为“猫的耳朵尖”这个特征的权重设低了(比如只设了0.3,其实应该设0.8),或者“狗的尾巴长”这个特征的权重设高了(比如设了0.7,其实应该设0.2)。反向传播会像“破案”一样,找到这些有问题的参数,然后根据误差大小,一点点调整它们的值——比如把“耳朵尖”的权重从0.3调到0.4,把“尾巴长”的权重从0.7调到0.6。
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!
这一步就像你做题错了,老师告诉你“这道题是公式用错了,应该把a换成b”,你下次做题就会调整公式里的参数,避免再错。
5. 第五步:“反复练习”——迭代,直到误差足够小
一张图片改完参数还不够,机器会把10万张图片一张一张地“做一遍题、改一遍错”,这叫“一轮训练”。然后再从头开始,做第二轮、第三轮……直到损失函数算出的误差“足够小”,比如误差值小于0.01——这时候机器认猫的准确率可能达到98%,就算“学会了”。
你看,整个学习过程就是“前向传播算答案→损失函数算误差→反向传播调参数→反复迭代”,跟人学东西的逻辑完全一样:先尝试,再纠错,再调整,最后熟练。
这里有个小细节:机器“学习”的时候,不是把所有数据一次性用完,而是分成“批次”(比如一次用100张图片),每批学完就调一次参数,这样效率更高——就像你学英语,不是一天背完1000个单词,而是每天背100个,分10天背,效果更好。
四、深度学习能干嘛?不是“只会聊天画图”,早已渗透到你生活的每个角落
很多人对深度学习的印象还停留在“ChatGPT能聊天”“AI能画图”,其实它早就悄悄走进了你的生活,从早上起床到晚上睡觉,你可能已经跟它打了十几次交道。
咱们按“一天的生活”来盘点一下深度学习的应用:
1. 早上起床:被深度学习“叫醒”
- 手机闹钟的“智能跳过”:有的手机闹钟有“智能跳过节假日”功能,背后是深度学习分析你的日历数据,判断“今天要不要响铃”。
- 人脸识别解锁手机:你拿起手机,屏幕对着脸,瞬间解锁——这是深度学习在“实时识别你的面部特征”,比如眼睛的距离、鼻子的形状、下巴的轮廓,确认“是机主本人”才解锁。
- 智能音箱的“语音唤醒”:你说“小爱同学”“小度小度”,音箱能立刻回应,是因为深度学习一直在“听”特定的唤醒词,过滤掉其他声音(比如电视声、说话声)。
2. 上班路上:深度学习帮你“避坑”
- 导航软件的“实时路况”:你打开高德或百度地图,它能告诉你“前方3公里堵车,预计延误20分钟,建议走备选路线”——这是深度学习分析 millions(百万)级别的车辆定位数据,判断路况,预测通行时间。
- 网约车的“智能派单”:你下单后,平台能快速匹配附近的司机,是因为深度学习计算“你和司机的距离、司机的接单习惯、路线拥堵情况”,找到最优的匹配方式。
当你游走在人性黑暗的角落,请闭眼聆听,痛苦滋养的复仇之种已经点燃。...
山村少年竟然有神秘的身份,还有三个各怀绝技的奇怪师父,这少年究竟是谁,他将肩负什么样的使命,本书将为你一一道来……......
秦姝予从小就知道自己和别人不一样。别人觉得好看的东西,她觉得难看。别人觉得难看的东西,她却觉得好看。这种情况包括人。在遭受了不知多少白眼的秦姝予长大后,练就了一副“睁眼...
本文改编自rkg的h武侠《玲珑孽缘》,这是非常经典的老作品。但对于有精神洁癖和强迫症的我来说,不能接受那个悲惨的结局及无止境的绿,所以就动了改编的念头。改编《玲珑孽缘》其实很多作者和读者都做过,但是我觉得都不是自己喜欢的。所以就亲自操刀,整个改编,除了保持大致的主线和人物不变,又要纯爱和后宫结局,困难是非常巨大的,不亚于全新创造,所以我重新取名《玲珑后宫》,希望大家能喜欢。...
明穿,武侠,超能,灵魂。...
本书由与组成,可在章节十直接更换两本小说。火柴人的亿万事件,大篇分部,爱情、魔幻多条主线全无在对世界撒谎,但同时世界也在对他撒谎,与多个世界的……......