pillow初识、format格式化、绝对相对路径说明

python -m -pip install –upgrade pip #升级python的pip

pip install pillow #安装pillow库

pip install django-simple-captcha #安装captcha库

pip install opencv-python #安装opencv库

pip install matplotlib #安装matplotlib库


pillow的小程度基本入门

  • 可以对图像进行简单的读取、生成、裁剪、缩放、复制、翻转、旋转、粘贴、拉伸
  • 图像的模糊、边缘增强、锐利、平滑等常见操作
  • 在图像中加入文本,将图片变色

文件绝对路径和相对路径的表示形式不同

  1. windows系统中绝对路径用\展开,而在其他系统中会出现用/的展开
  2. 相对路径中则使用/,比如返回上一级文件夹../,当前文件夹前不需要加斜杠,前往下一级文件夹的某文件则类似于/xx/xx.c

python语法:格式化输出之format用法

图像识别与处理

前言:图像识别与处理的大实验,需要完成的任务是基于嵌入式的字符识别

我目前想到的方案:

  • 硬件方面:利用手里有的stm32f4开发板,再买一个ov2460的摄像头采集图像,最后借助手上的蓝牙模块传输信息到电脑上。
  • 算法部分:做基于python的程序编写,那么准备利用好github上的各种方法,将这一块的图像处理学透,比如得到一个原始图像的初步处理,后面的支持向量机(SVM)、深度学习等

CNN

一个通俗易懂的卷积神经网络的内容介绍

  • 这是一个非常容易理解的CNN卷积神经网络的入门介绍,一个图像的信息以RGB的形式输入,那么就是一个3维的且“厚度”为3阶(一个RGB像素点含三个数)的矩阵,经过

卷积层(矩阵样式的过滤器,很好理解)

激活函数(比如relu,对每一层后得到的矩阵处理)

池化层(分成中块对每个中块进行处理,来简化阶数)

全连接层(涉及传统的神经网络,这一层是每一个单元都和前一层的每一个单元相连接,所以称之为“全连接”)

  • 到了全连接层之后的操作,就跟普通的神经网络无异了,卷积神经网络比较于传统神经网络的优势在于:

1.参数共享机制:对于不同的区域,我们都共享同一个filter,因此就共享这同一组参数;有效地避免过拟合;由于filter的参数共享,即使图片进行了一定的平移操作,我们照样可以识别出特征,这叫做 “平移不变性”。因此,模型就更加稳健了

2.连接的稀疏性:传统神经网络中,由于都是全连接,所以输出的任何一个单元,都要受输入的所有的单元的影响。这样无形中会对图像的识别效果大打折扣。比较,每一个区域都有自己的专属特征,我们不希望它受到其他区域的影响



Logistic Regression

逻辑分析的理解

  • 逻辑分析的含义:
  1. 有一个列向量,其中包含着一张照片的所有有效信息,他可能有10个数据,也可能有10000个数据,通常是像素值;每一个数据都对应着一个权重,那么自然这些权重也会组成一个列向量。所有数据加权求和之后加上一个系数b就会有一个输出,可以理解成一张照片就会有一个总输出

x0w0+x1w1+…+x12287w12287+b=WTx+b

  1. 对于总输出的处理,他会作为一个激活函数(对于神经元的)(对于逻辑分析就指的是sigmoid函数)的变量输入,函数的输出就是这张照片的一个预测结果y’,sigmoid函数**输出在0-1范围内,对于图像处理最终结果的判断就在0-1中且分为了几个区间,y’在这个区间说明图片是“xx”,在那个区间又说明什么。。。

y’ = σ(WTx+b)

  1. 而其实这都是根据一个前置处理(加权求和、带入激活函数)得出的预测值,他就不会一定准,所以有一个损失函数来衡量y’与真实值y(比如sigmoid函数输出对应的0或1)的差距

L(y’,y) = -[y·log(y’)+(1-y)·log(1-y’)]

  1. 那么对于一个我们用来训练的图片集来说,每一张照片都有一个预测值y’。这些y’的损失函数的输出值的平均值尽量小,那就是综合了所有图片数据得到的模型。寻找W和b的较好的值,就靠这个平均值,也叫平均损失(其函数名称叫代价函数)求得,这个函数的导数为零的那一点应该是极小值,那损失就是极小值。

J(W,b) = 1/m·Σmi=1L(y’(i),y(i))

  1. 通常用梯度下降法,那么操作起来就是,求得函数在目前的W、b处对W的导数,如果梯度(导数)为正,说明曲线之后向上走,所以W的值应该减小才能往低处走,梯度为负那就往前走正好是往低了走,重复一次成为一个迭代,当然还有对b的偏导,一次次迭代,一次次更新W和b的参数。梯度下降法中学习率(α)相当于每次迭代步长

w := w - α(dJ/dw)

  1. 最后那这对(W、b)就可以用来检验对于图像识别的准确率了

一个对逻辑回归分析更清晰的介绍

  1. 简单来说, 逻辑回归(Logistic Regression)是一种用于解决二分类(0 or 1)问题的机器学习方法,用于估计某种事物的可能性。
  2. 上文所提到的代价函数称之为交叉熵,是对「出乎意料」(译者注:原文使用suprise)的度量。那么,交叉熵衡量的是我们在知道y的真实值时的平均「出乎意料」程度。当输出是我们期望的值,我们的「出乎意料」程度比较低;当输出不是我们期望的,我们的「出乎意料」程度就比较高。
  3. sigmoid函数为决策边境,他是线性的。


NNS

传统神经网络的基础入门

  1. 作为对前面碎片化学习的延申。我认为只能说一次逻辑回归可能只能应用于线性问题,而有多个计算层的神经网络是可以解决非线性问题的。这是由于每一个计算层,或者说每一个单元的处理都是线性的,但是前一个计算层将数据空间扭曲了(两层间的权重矩阵是转换的关键),使得下一个计算层就算是线性的,也可以很好的划分出决策边境。因此,多层的神经网络的本质就是复杂函数拟合

  2. 神经网络通常有

输入层(包含已知的若干特征)

隐藏层(对输入特征一层层的抽象,获得更深一层的含义)

输出层(希望获得的目标,可以是单一值,也可以是向量)

偏置单元:它本质上是一个只含有存储功能,且存储值永远为1的单元。在神经网络的每个层次中,除了输出层以外,都会含有这样一个偏置单元。正如线性回归模型与逻辑回归模型中的一样。

  1. 对于只有输入层和输出层的神经网络称为感知器,它只能做线性的分类任务;而多层神经网络(深度学习)就能更深入的表示特征,以及拥有更强的函数模拟能力

  2. 传统神经网络中一个单元(节点 or 神经元)的处理基本上可以陈述为:上一层所有节点的输出向量矩阵乘上两层之间的权重矩阵,得到的结果矩阵,再作为激活函数转移函数)的变量输入。函数输出值作为这个节点的输出向下一层传递、或者作为目标直接输出

  3. 在单层神经网络时,我们使用的激活函数是sgn函数。到了两层神经网络时,我们使用的最多的是sigmoid函数。而到了多层神经网络时,通过一系列的研究发现,ReLU函数在训练多层神经网络时,更容易收敛,并且预测性能更好。因此,目前在深度学习中,最流行的非线性函数是ReLU函数。

ReLU函数:不是传统的非线性函数,而是分段线性函数。其表达式非常简单,就是y=max(x,0)。简而言之,在x大于0,输出就是输入,而在x小于0时,输出就保持为0。这种函数的设计启发来自于生物神经元对于激励的线性响应,以及当低于某个阈值后就不再响应的模拟。

  1. 训练:训练的主题仍然是优化泛化

优化梯度下降算法以及反向传播算法(BP)在多层神经网络中的训练中仍然工作的很好。目前学术界主要的研究既在于开发新的算法,也在于对这两个算法进行不断的优化。

反向传播算法:即由后层向前层一层层的递推,递推什么呢,就是代价函数对于这些个权重的偏导数,由于高等数学中的偏导数中的链式法则

泛化:在深度学习中,泛化技术变的比以往更加的重要。这主要是因为神经网络的层数增加了,参数也增加了,表示能力大幅度增强,很容易出现过拟合现象。因此正则化技术就显得十分重要。目前,Dropout技术,以及数据扩容(Data-Augmentation)技术是目前使用的最多的正则化技术。

神经网络的类别

深度学习就是多层神经网络,而机器学习则不同,他大概是人工智能算法的一个总称,他的算法包含了回归算法、神经网络、SVM等等,是一个宽泛的课题

深度学习之卷积神经网络经典模型

Ielts学习-2

雅思听力

  • 完成剑雅3个section,正确率正常不过用时较长,进入状态太慢
  • 以下是学术背景的听力相关词汇积累,雅思喵807听力词汇
A B C D
orientation resume curriculum curriculum vitae
extra-curriculum assessment virtual compulsory
trimester semester term session
obligatory

雅思作文

  • 思维发散小技巧

s-e-c-r-e-t of cheese 知识的秘密

skill
education
carrer,communication,comments,curriculum
read,reveal,review,record,refresh
elevate,estimate
tell,teach,threshold,translate,target,topic,

  • Ielts作文评分标准
任务完成度 连贯与衔接 词汇资源 语法结构
TA CC LR GRA
Task Achievement Coherence and Cohesion Lexical Resource Grammatical Range Accuracy
其他扣分点
underlength 篇幅不够 no of words 字数
off-topic 偏题 memorised 套用模板
illegible 字迹潦草 penalty 作弊

小作文

  • 动态图(依据年份)、静态图
  • 线(string)、柱(bar)、饼(pie)、表(form)、流程(flow)、地图(map)
图表 上升 下降 维持不变
diagram rise decrease stay steady
chart rocket go down remain constant
graph soar decline keep stable
surge drop maintain this level
climb fall
go up diminish
increase
boom

(a(an) upward/downward trend:一个上升下降趋势)


雅思阅读

  • 平行阅读法:读完一遍文章后,全部题目做完,即按顺序阅读文章包括题目

判断题中的NG选项出现形势:1.完全没提及 2.提到一部分,另一部分没提及

  • 作业:剑雅10 Test 3 -Passage 2

生词记忆

生词 释义 生词 释义
proofread v. 校对 punctuation n. 标点符号
preposition n. 介词 carnival n. 狂欢节,嘉年华
infinitive n. (动词的)不定式 reinvent v. 以新形式出现
pigment n. 色素,颜料 illegible a. 难以辨认的
penalty n. 惩罚
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×