hg皇冠包装材料

 hg皇冠包装材料     |      2020-03-01

摘要:在很多方面,人工智能的表现已经超越了人类,这并不代表人工智能很聪明。相反,其实人工智能是很傻很天真的,你认认真真与它交流,会被吓到,但如果稍微使点诈,它就会原形毕露。   在很多方面,人工智能的表现已经超越了人类,这并不代表人工智能很聪明。相反,其实人工智能是很傻很天真的,你认认真真与它交流,会被吓到,但如果稍微使点诈,它就会原形毕露。那么人工智能是如何看起来很聪明的呢,下面笔者以讲故事的形式,让大家了解监督学习下的人工智能是如何运作的。  非人工智能阶段  故事的主角叫小A(AI),我们让小A学习化妆。在没有任何的帮助下,小A化妆只有一个步骤,那就是上色,所以刚开始小A化妆会全部涂成纯色。这是因为初始化的小A相当于计算器,你给她一个指令,她就输出一个结果。你让她化妆,她就涂上纯色。结果客户非常不满意,怎么办?你得先教小A认脸。  人工智能起步阶段  小A眼中的世界与我们是不一样的,我们能够看到色彩、形状,而小A的眼里只有0和1两个数字(二进制),你可以理解为小A高度近视,但不愿意戴眼镜。所以小A想要认脸,先要把人脸抽象化,比如人的嘴巴就是一条曲线。小A将这条曲线对应的0、1排列顺序认作是人的嘴巴。  问题又来了,曲线代表嘴巴的话,小A有时候会把眉毛也看成嘴巴,为了避免笑话,你让小A判断是不是嘴巴的时候,不要单纯的以“是”或“不是”为结果。这时候你给小A的一些算法,让她把疑似嘴巴的曲线对应的0、1排列顺序输入算法中,最终结果会出现一个百分数,当百分数大于90%的时候,小A就知道这条曲线就是嘴巴,然后就能化妆了。以上就是比较初级的人工智能,比刚开始聪明一些,但还是不够聪明。  人工智能发展阶段  小A又遇到了问题。小A给一个人化妆的时候没有问题,但给多个人化妆就有问题了,因为人之间差别太大。比如之前都是给樱桃小口的客户化妆,现在突然来了一位大嘴客户,小A不知道该怎么化了。  那该怎么办?为了让小A能够快速掌握技能,你准备了一沓照片,上面几乎拥有人类的全部嘴型(大数据),然后又掺进去了一沓动物嘴型和其他乱七八糟的照片(负样本),一张张的让小A认。小A认对了,你就鼓励她,认错了,就打一巴掌。认对就夸、认错就打,这就是监督学习。  这个过程中小A如何成长呢?还记得之前你给小A的算法吗,现在这个算法里面有几项数值非常重要,这几项数值就是权重。在小A判断照片是不是人的嘴巴时,小A会根据正确或错误的结果调整权重,直到能够不会出现错误。  小A要看多少照片呢?越多越好,而且要重复的让她看。除了看嘴巴的照片,还要看眼睛的、鼻子的,还要给她看拥有全部五官的……这样小A就能将识别的正确率提升到很高的水平。再给客户化妆的时候,客户就会夸小A真智能。  以上就是人工智能发展时要经历的几个阶段,当然其中涉及到很多复杂的知识和技术,而且后续还会有更为复杂的理论和概念,笔者在此就不做深入探究了。  对人工智能的一些认识  相信很多朋友在学生时代对数学中的回归计算有着比较深刻的印象吧,xy轴上的很多个点,你需要找一条线,让所有点到曲线的距离是最近的,然后用一串字符模拟出这条曲线。人工智能机器学习的过程就相当于回归方程计算的过程。只不过人工智能的“回归计算”包含很多节点,过程更加庞大、复杂罢了。  回归计算与人工智能是相似的,以往人工智能没有得到重视的原因是大数据和硬件运算能力达不到神经网络运行的要求,而如今已经达到了,所以人工智能才得以迅速发展。  曾经有组织对某人工智能大赛冠军GoogLeNet网络进行过测试,测试方法与普通识图稍有不同。他们在一张大熊猫的照片中加入了肉眼无法辨别的影响因素后,GoogLeNet网络竟然将大熊猫认成了长臂猿。从这个例子我们能够看出,目前人工智能是很傻很天真的,只是在某些领域发挥除了机器计算的优势而已。  小A要看多少照片呢?越多越好,而且要重复的让她看。除了看嘴巴的照片,还要看眼睛的、鼻子的,还要给她看拥有全部五官的……这样小A就能将识别的正确率提升到很高的水平。再给客户化妆的时候,客户就会夸小A真智能。以上就是人工智能发展时要经历的几个阶段,当然其中涉及到很多复杂的知识和技术,而且后续还会有更为复杂的理论和概念,笔者在此就不做深入探究了。  相信很多朋友在学生时代对数学中的回归计算有着比较深刻的印象吧,xy轴上的很多个点,你需要找一条线,让所有点到曲线的距离是最近的,然后用一串字符模拟出这条曲线。人工智能机器学习的过程就相当于回归方程计算的过程。只不过人工智能的“回归计算”包含很多节点,过程更加庞大、复杂罢了。  以往人工智能没有得到重视的原因是大数据和硬件运算能力达不到神经网络运行的要求,而如今已经达到了,所以人工智能才得以迅速发展。  曾经有组织对某人工智能大赛冠军GoogLeNet网络进行过测试,测试方法与普通识图稍有不同。他们在一张大熊猫的照片中加入了肉眼无法辨别的影响因素后,GoogLeNet网络竟然将大熊猫认成了长臂猿。从这个例子我们能够看出,目前人工智能是很傻很天真的,只是在某些领域发挥除了机器计算的优势而已。 (来自:中关村在线)

2.2 数据集

数据集的选择对模型的影响是最大的,选择原则:
1)尽量使用真实数据
2)代表性的特征
3)数据维度不是越多越好
训练集:训练模型,历史数据
验证集:调整模型参数
测试集:测试模型的泛化能力

这段时间听关于机器学习的分享,因此总结以下几点。

2.3 效果评估

混淆矩阵:基于模型,样本的分类分布情况。
准确率:分类正确的样本数占总样本数的比例 。
召回率对样本的正例而言,正例分类正确的,TP/(TP+FN) 正确分类/(正确分类+正确归类到错误的) 召回率越大,模型越好;
精确率对预测的正例而言,正例分类正确的,TP/(TP+FP) 正确分类/(正确分类+错误归类到正确的) 精准率越大,模型越好;
F1-score: 兼顾召回率和精确率,看做是这两个的加权平均,=精确率 * 召回率 * 2 / (精确率 + 召回率) 整体上进行效果评估。
ROC曲线:接收者操作特征(receiveroperating characteristic),曲线上每个点反映着对同一信号刺激的感受性。当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。

图片 1

混淆矩阵.png

图片 2

ROC曲线.png

横轴:负正类率(false postive rate FPR)特异度,对样本负例而言,正确分类到负例占样本负例的比;FP/(FP+TN);
纵轴:真正类率(true postive rate TPR)灵敏度,对样本正例而言,正确分类到正例占样本正例的比;TP/(TP+FN);

截断点:ROC曲线还涉及到另一概念,针对上文中计算出的 P,如 P > 0.3为正例,则0.3为截断点;如果P>0.5为正例,则0.5为截断点。
ROC曲线就是基于 截断点、FPR、TPR的不同取值画出的。
曲线性质:
1)A点,TPR=0,FPR=0,认为样本都是负例;
2)B点,TPR=0,FPR=1,最差的情况,所有样本的正例都分类错误了;
3)C点,TPR=1,FPR=1,认为样本都是正例;
4)D点,TPR=1,FPR=0,最好的情况,都分类正确;
5)TPR=FPR,随机;

可以看出,越往D点靠近,效果越好。

AUC(Area under curve):ROC曲线下的面积。表示样本分配正确的概率,暂时还没有找到好的例子来简单表示。
1)AUC = 1,是完美分类器,一般不存在这种情况。
2)0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
3)AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
4)AUC < 0.5,比随机猜测还差。