假设您要编写一种算法,该算法基于大小和价格这两个参数来确定房屋是否在同一年出售。因此,您有2个输入(大小和价格),而1个输出将出售或不出售。现在,当您收到训练集时,可能会发生输出未累积以使我们的预测变得容易的情况(您能告诉我,根据第一张图,如果X
是N或S,第二张图怎么样):
^
| N S N
s| S X N
i| N N S
z| S N S N
e| N S S N
+----------->
price
^
| S S N
s| X S N
i| S N N
z| S N N N
e| N N N
+----------->
price
哪里:
S-sold,
N-not sold
如您在第一张图中所看到的,您无法真正用直线将两个可能的输出(已售/未售出)分开,无论您如何尝试,该行的两边总会同时存在S
和N
,这意味着您的算法将有很多possible
行,但没有最终的正确行来拆分2个输出(当然也要预测新的行,这是一开始的目标)。这就是linearly separable
(第二张图)数据集更容易预测的原因。
0
我目前正在阅读Tom Mitchell撰写的《机器学习》一书。在谈论神经网络时,Mitchell指出:
我在理解他的“线性可分离”含义时遇到问题?维基百科告诉我:“如果二维空间中的两套点可以用一条线完全分开,则它们是线性可分离的。”
但是,这如何应用于神经网络的训练集?输入(或动作单元)如何线性分离?
我不是最擅长几何和数学的人-有人能像我5岁时向我解释吗? ;) 谢谢!