编辑 | 陈彩娴
机器自学应用领域十分火热,捷伊数学模型、技术不断改进十分快,要求他们在平时的工作和自学操作过程中,会须要去写作一些学术论文,跟踪某个应用领域的最新静态。
但读学术论文时常会有两种不适的感觉,一是容易忘却,二是无法总结性。 忘却通常是读了后面忘记前面,或是过几日回顾自己读的学术论文完全不晓得是怎么回事。 无法总结性体现在喜欢整本的写作,没侧重的从全局来自学学术论文。
所以,他们如果怎样写作机器自学应用领域的学术论文?
Google Robotics 科学研究生物学家 Eric Jang 在博客上写了一则名为“How to Understand ML Papers Quickly”的文章,提到他的学员也时常问他一些略有不同的难题,比如 “arXiv 上的各种学术论文每天都泛滥,他们又该怎样去选择性地写作?”
他提出,写作大多数机器自学应用领域的学术论文的好处在于,你只须要问四个简单的难题,就能弄清楚学术论文的逻辑,并能避免许多麻烦,比如晦涩的名词,糟糕的数学推论…
这四个难题是:
1)表达式迫近器的输入是甚么?
比如,只有两个第一类居中的224x224x3 RGB 快照。
2)表达式迫近器的输入是甚么?
比如,对应于输入长度为1000矢量的图像。
透过此种“略去”的形式思考机器自学控制系统的输入和输入,这样一来,你便能埃唐佩县演算法名词,并考虑其他应用领域与否用其他形式实现了同样的目的。我发现此种形式在写作“元自学”应用领域的学术论文时十分有用。
透过将机器自学难题视为一组输入和预期的输入,你能推断输入与否足以预估输入。如果不展开此练习,你可能会随便设置两个机器自学难题,输入可能无法由输入确认。因而便有可能创造两个引发“错误”的机器自学控制系统。
3) 关于输入的预估是以甚么为代价来展开监督的?这个特定目标对世界又有甚么样的假定?
机器自学数学模型是透过组合谐振和统计数据而形成的。有时候谐振很强,有时候又太弱。为了使数学模型更快地普遍化,你须要加进更多偏差或是加进更多的样本均值统计数据。正如“天下没免费的早餐”理论所指出的,没哪两个优秀的数学模型是能安安心心做出来的。
举两个例子:许多ChS200演算法都假定两个稳定而连续的统计数据生成操作过程,即泊松决策操作过程(MDP)。在MDP 中,"状况"和"行动"透过环境的过渡静态确认态射到"下两个状况、反馈以及与否结束"。此种结构虽然十分寻常,但能将损失展开形式化表达,使自学Q值遵循惠勒方程。
4)后,数学模型能从以前众所周知的输入/输入中概括出甚么?
由于从统计数据或数学模型的数据库系统中捕获了信息,因而机器自学控制系统能很好地泛华。近年来,他们看到普遍化的水平越来越高,因而在写作学术论文时,我会去观察这些令人惊讶的普遍化功能以及它们来自何处(统计数据,谐振或两者Toothukudi)。
更快的归纳谐振在该应用领域存在许多噪音,比如自然法则推理、记号形式或以第一类为中心的表示。这些是构建稳健而且可靠的机器自学控制系统的重要工具,而且我晓得分隔形式化统计数据与数学模型的谐振界限可能很模糊。科折粉,但让作者感到困惑的是,为甚么有所以多科学研究相关人员认为推动机器自学前进的形式是减少自学量并增加硬代码行为的量。
他们之所以开展“机器自学”的科学研究,恰恰是因为有些事情他们不晓得怎样去展开硬代码。作为机器自学科学研究相关人员,他们如果将工作重点放在改善自学形式上,而将硬代码和记号形式留给机器硬代码科学研究相关人员使用。
5)结论与否可断言?
这些声称无法断言的学术论文无此科学应用领域之内。
原文链接:
https://blog.evjang.com/2021/01/understanding-ml.html
请立即点击咨询我们或拨打咨询热线: ,我们会详细为你一一解答你心中的疑难。项目经理在线