• 麻省理工学院开导检会更可靠AI代理的灵验模范 用于智能戒指交通等

  • 发布日期:2024-12-24 16:16    点击次数:175

    麻省理工学院开导检会更可靠AI代理的灵验模范 用于智能戒指交通等

    盖世汽车讯 从机器东谈主时代、医学再到政事学,各个界限王人在尝试检会东谈主工智能(AI)系统作念出多样有好奇的决策。举例,在拥挤的城市中使用AI系统智能戒指交通,不错匡助驾车者更快到达缠绵地,同期提高安全性或可握续性。

    (图片开首:麻省理工学院)

    然则,教AI系统作念出正确的决策并非易事。这些AI决策系统的基础是强化学习模子,当被检会履行的任务出现哪怕很小的变化时,它们仍然过去失败。以交通为例,一个模子可能难以戒指一组交叉路口(具有不同的速率戒指、车谈数目或交通花样)。

    据外媒报谈,为了提高强化学习模子的可靠性,以粗疏具有可变性的复杂任务,麻省理工学院(MIT)的商榷东谈主员引入一种更灵验的算法来检会它们。

    该算法战术性选拔最好任务来检会AI代理,以使其随机灵验履行联系任务聚会中的通盘任务。在进行交通讯号戒指的情况下,每个任务不错是任务空间(包括城市中的通盘交叉路口)中的一个交叉口。

    通过关心最成心于算法全体灵验性的少数交叉路口,该模范不错充分提高性能,同期保握低检会本钱。商榷东谈主员发现,在一系列仿真任务中,这种时代比尺度模范的恶果高5-50倍。这有助于该算法以更快的形势学习更好的贬责决议,最终提高AI代理的性能。商榷东谈主员Cathy Wu暗示:“通过跳出框框念念考,使用十分浮浅的算法,咱们看到惊东谈主的性能擢升。社区更可能接收不太复杂的算法,因为它更容易实施,也更容易被其他东谈主相识。”

    寻找中间选拔

    为了检会一种算法来戒指城市中多个交叉路口的交通讯号灯,商榷东谈主员过去会在两种主要模范之间作念出选拔,包括为每个路口单独检会一种算法(只使用该路口的数据);或者使用通盘路口的数据来检会更大的算法,然后将其应用于每个路口。但每种模范王人存在缺点。针对每项任务(举例给定交叉路口)检会单独的算法是一个耗时的经过,需要无数的数据和计较,而为通盘任务检会一种算法过去会导致性能欠安。

    在这项商榷中,Wu等东谈主在这两种模范之间寻找最好均衡点。关于他们的模范,他们选拔任务子集,并为每个任务单独检会算法。遑急的是,商榷东谈主员战术性地选拔最有可能提高算法在通盘任务上全体性能的单个任务。

    商榷东谈主员应用强化学习界限的常见手段——即零样本转移学习,行将也曾检会好的模子应用于新任务,而无需进一步检会。通过转移学习,模子过去在新的相邻任务上弘扬出色。Wu暗示:“咱们知谈在通盘任务上进行检会是最好的。但咱们想知谈,咱们是否不错在这些任务子集上进行检会,将这些吊销应用到通盘任务上,并仍不错看到性能擢升。”

    为了详情应该选拔哪些任务来最大化预期性能,商榷东谈主员开导出名为模子基滚动学习(MBTL)的算法。MBTL算法分为两部分。领先,它模拟每个算法在一项任务上平安检会时的弘扬。然后,它对每个算法的性能在滚动至另一任务时会镌汰的进度进行建模,这个见识被称为泛化性能。

    受益于显式建模泛化性能,MBTL随机评估在新任务上进行检会的价值。MBTL按限定履行这一操作,领先选拔随机带来最高性能增益的任务,然后选拔随机为总体性能提供最大后续边缘改良的颠倒任务。MBTL仅关心最裕如出路的任务,因此随机彰着提高检会经过的恶果。

    镌汰检会本钱

    当商榷东谈主员在仿真任务中测试这种时代时,包括戒指交通讯号、料理及时速率见告,以及履行多少常针砭指任务,它的恶果是其他模范的5-50倍。

    这意味着商榷东谈主员不错通过检会更少的数据获取调换的贬责决议。举例,MBTL算法的恶果提高了50倍,仅在两个任务上进行检会,就不错收尾与使用100个任务数据的尺度模范调换的性能。Wu暗示:“从两种主要模范的角度来看,这意味着其他98个任务的数据是无谓要的,或者在一起100个任务上进行检会会污辱算法,是以最终性能比咱们的更差。”

    使用MBTL,即使少许增多颠倒检会时候,也不错带来更好的弘扬。将来,商榷东谈主员沟通联想不错膨胀至更复杂问题(如高维任务空间)的MBTL算法。他们还感兴味的是,将这种模范应用于践诺全国问题,突出是鄙人一代移动出行系统中。