美文网首页中华文学
什么是语言学习的「过度规则化」

什么是语言学习的「过度规则化」

作者: 初几开门 | 来源:发表于2020-10-31 20:48 被阅读0次

带你走进真实的心理学,今天继续来和你分享学习语法中的有趣现象。

你有没有遇到这样的情况?比如说,学习英语时,知道过去式的规则是需要在动词原形后加-ed。

像want-wanted,connect-connected这些都是符合规则的。

但可能在初学后,你会有这样的运用:go-goed,grow-growed。

这些看起来似乎符合了规则,但其实并不是正确的用法,而是规则的过度使用,它们被称为过度规则化(Over-regularization)。

对于刚学习的母语小孩子和学习外语的初学者来说,这样的情况都很普遍,学习者会将新学到的语法规则过度使用在新句子中。

其实这种现象在中文中也很常见,例如:在小学时,我们都会学习量词如何使用。

你有没有遇到过学习了个这个量词后,不管什么对象都想用个来形容的时候呢?像是一个树,一个车这样的表达呢?对于中文母语的小朋友来说,这很常见。

其实对于将中文当作第二语言的外国人来说也是如此。

我曾经被学习中文的外国学生问,为什么可以说一个月,一个星期,但是不能说一个天和或者一个年呢?这些现象其实都是语法的过度规则化。

相关文章

  • 什么是语言学习的「过度规则化」

    带你走进真实的心理学,今天继续来和你分享学习语法中的有趣现象。 你有没有遇到这样的情况?比如说,学习英语时,知道过...

  • L0、L1及L2范数

    监督类学习问题其实就是在规则化参数同时最小化误差。最小化误差目的是让模型拟合训练数据,而规则化参数的目的是防止模型...

  • 12.L1范数,L2范数

    存在意义 监督学习的2个主题就是 最小化误差:模型拟合数据 规则化参数:防止过拟合 为了使模型简单,所以需要规则化...

  • L1,L2,L0区别,为什么可以防止过拟合

    引入 监督学习的过程可以概括为:最小化误差的同时规则化参数。最小化误差是为了让模型拟合训练数据,规则化参数是为了防...

  • 机器学习中的范数规则化之L0、L1与L2范数

    过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。 监督机器学习问题无非就是“minimi...

  • 机器学习中如何解决过拟合

     机器学习中出现的非常频繁的问题:过拟合与规则化。我们先简单的来理解下常用的L0、L1、L2和核范数规则化。  监...

  • 机器学习中的范数规则化

    L0、L1与L2范数 机器学习的目标:在规则化参数的同时最小化误差 第一项:误差 第二项:规则化函数,约束我们的模...

  • 机器学习正则化之L0、L1、L2范数

    记录一下:简要介绍机器学习规则化L0,L1及L2范数

  • 什么是过度解读?

    上小学时,有一次我哭闹着跟我妈说,我不想去上学了。 当时我妈正在打着毛衣,一边和村里的几个婆娘家长里短。 她一听急...

  • 什么是过度期待

    和室友约了去游泳。 夏天开始的时候,我就念叨着要学游泳,但是因为穷啊,没去上游泳体育课啊,所以约了会游泳的室友,让...

网友评论

    本文标题:什么是语言学习的「过度规则化」

    本文链接:https://www.haomeiwen.com/subject/cbtaektx.html