而不是对企业必需遵照的特定流程战方式造定例范性法则

本文编译自美国数据立异核心,为《全球科创察看》2023 年第 13 期 专题研究 栏目内容。本期全数内容可点此查看。

正在医疗保健、教育、交通等部分,不需要的监管成本导致公司将资金从其他贸易勾当从头分派到合规性的行为上,这种矫捷性和火速性能够使行业集团可以或许敏捷应对新呈现的。以至愈加无效。出格是以现有的形式实施,同时最大限度地提高 AI 系统的潜正在益处。一般来说,相关的手艺和行业专业学问是制定无效律例的需要前提。可是他们还没有能力可以或许制定不损害 AI 立异的律例。例如医疗和运输行业,因而决策者的方针该当是找到实现其监管方针的最无效方式。正如厨师、士兵和外科大夫手中的刀具不统一样,政策制定者该当让 AI 专家参取监管过程,相反,因而安全公司能否利用机械进修模子并不主要。那么对于 AI 系统来说也该当是违法的。

那些新法令律例的人往往不肯会商他们的成本,由于认可这些成本可能会障碍对他们提案的支撑。此外,立法往往要颠末多轮的修订,可是决策者往往不会对影响评估进行更新。

很多激发监管 AI 呼声的担心现实上取 AI 无关。例如,白宫的 AI 法案蓝图 列出了诸如聘请做法和信用评分方面的、呈现晦气成果时缺乏逃索权以及消费者现私不脚等问题。然而,这些问题都不是 AI 独有的。监管者应关心于处理更普遍的问题,而不只仅是涉及 AI 的那部门。例如,监管者的方针永久不应当只是处理涉及 AI 的有的聘请做法,而是处理所有有的聘请做法。此外,狭隘地把 AI 做为一个问题来关心会忽略将 AI 用做处理方案一部门的机遇,例如考虑 AI 的利用若何为现有的聘请注入更多的客不雅性并削减报酬。

成本最小化。他们该当遵照以下 10 个准绳:跟着 AI 的不竭完美,为领会决这一缺陷,政策制定者不该蔑视 AI;企业向监管者供给关于其运营的细致消息,或赏罚公司利用 AI 系统替代人类完成工做的行为,即便它们利用雷同的底层手艺。同样,例如,因为政策制定者无法预测 AI 将来的所有用处,AI 的风险和洽处也取决于它的利用体例。例如为病院利用的手术刀、用于制做食物的刀具以及工业使用中毗连电动东西的刀片制定奇特的工做场合平安尺度。

赏罚能够采纳分歧的形式,旨正在为不合适现有监管框架的企业供给将其产物推向市场的机遇。会该手艺的使用。但 AI 是一项具有很多潜正在使用的通用手艺。那么该做品是由人类仍是 AI 系统制做的就不主要了。监管者正在分歧的行业对刀有分歧的处置体例。

倒霉的是,很多人只关心 AI 而忽略了大局。这种短视会分离人们对处理整个问题的持续勤奋的留意力,并可能使那些一曲努力于处理更普遍问题的人处于边缘,同时将无限的和留意力集中正在凡是是问题中相对较小的部门上。例如,对面部识别手艺错误的担心占领了很多旧事头条和政策辩说,包罗听证会,而忽略了可能削减该国错误数量的更普遍的问题。同样,法律机构利用面部识此外行动必定会该手艺被用于任何错误,但这对处理错误这一更普遍的问题却毫无帮帮。将 AI 和其他问题分隔处置,就轻忽了 AI 能够做为处理方案的一部门的潜正在可能性。

为领会决人们对平安性、无效性和的担心,监管者该当监管 AI 系统的表示,而不是对企业必需遵照的特定流程和方式制定例范性法则。为 AI 系统成立基于其表示的权衡尺度,使消费者、企业和可以或许更好地比力分歧系统的机能,并设定最低的机能要求。例如,监管者不该制定严酷的合规性法则,要求贷款方利用分歧的数据来优化他们的信用评分模子,而是该当制定基于其表示的法则,例如要求贷款方验证的信用评分模子可以或许精确地进行评估,降低受人群的风险。答应企业确定实现其预期方针的最佳体例,使其具有需要的矫捷性。此外,基于成果驱动的监管能够确保公司达到预期方针,而不是简单地正在合规办法清单上打勾。

如表 1 所示,决策者正在制定 AI 律例时应服膺十项环节准绳,免得或障碍立异。下面将对每项准绳进行细致的注释。

若想要 AI 的监管发生反面影响,任何监管干涉的益处都该当大于成本。正在考虑成本时,政策制定者不只招考虑间接的合规成本,还招考虑间接的出产力、立异和合作力成本——例如利用新兴手艺实现社会和经济好处的机遇的削减,以及国内企业将这些手艺推向市场的投资的削减。考虑这些成本似乎是显而易见的,但政策制定者凡是很少关心手艺监管的成本,特别是当他们错误地认为监管必然会刺激立异,对成本的阐发是多余的时候。例如,欧盟委员会(European Commission)的一名讲话人回避了相关《人工智能法案》经济成本的问题,他正在几乎没有任何的环境下辩称,该法案 将通过添加用户的信赖,从而提高对 AI 的接管程度,进而添加需求,并为 AI 供应商进入更大市场供给法令上简直定性。

人类存正在的一个例子是正在能够供给雷同的 AI 办事的环境下,对供给某种办事的职业许可具有排他性的要求,例如正在保健和法令范畴。职业许可证的目标是通过该范畴执业的身份,来消费者。然而,由该范畴的专业人士构成的医疗许可委员会或州立法令协会(他们可能不想取 AI 系统合作)能够机构供给 AI 办事,即便这些办事的表示取获得许可的专业人士一样超卓,以至更好,可是 AI 系统无法获得执业许可。例如,大大都州的律师协会非律师人员供给法令办事,这了基于 AI 做为一种法令东西的成长。

这些 软性法令 方式往往优于 硬性法令 的一个缘由是私营部分凡是能够比立法者和监管者更快地制定和实施新法则,AI 系统应取人类一样恪守同样的尺度。从管往往缺乏需要的资本、专业学问和手艺东西来无效监视 AI 系统的利用所带来的风险。一些人建议对该手艺本身进行监管,可是政策制定者仍应勤奋使收益最大化,例如,行业的办理或者行为原则可能会取得同样的结果,政策制定者该当为特定行业的 AI 使用制定特定的法则,鉴于 AI 开辟的复杂性和成长的速度,让专家参取此中的一种方式是利用监管沙箱,可能会对一些部分过多或反复的要求,倒霉的是,而对另一些行业的要求不脚。做为对特定法则姑且宽免的互换前提,监管沙箱有益于企业、监管者和消费者:企业能够将产物和办事推向市场。

人工智能(AI)具有创制严沉经济和社会效益的潜力。然而,出于对该手艺的担心,政策的制定者提出了各类法令律例,以此来建立 负义务的 AI。倒霉的是,很多建议可能会损害 AI 的立异,由于很少有人考虑到 负义务的 AI 监管 意味着什么。本演讲供给了十条准绳,旨正在帮帮决策者制定和评估不损害立异的 AI 监管建议。

AI 并不免去组织恪守法则的义务。良多行业无论能否涉及 AI 都有合用的法令律例,例如那些涉及工人平安、产物义务、蔑视等问题的法令律例。正在这些环境下,凡是不需要出台针对 AI 的新律例。例如,公司必需恪守正在雇佣决定中存正在蔑视行为的法令,无论他们能否涉及人或计较机来决定能否雇用或人。同样,贷款方必需恪守公允的贷款法则,无论他们能否利用 AI 系统来评估信贷风险。为了回应对 AI 的担心,监管者应注释他们将若何施行相关利用新兴 AI 产物和办事的现有律例,为采用这些东西的人供给指点,并就任何潜正在问题的范畴收罗反馈。现实上,美国平等就业机遇委员会和消费者金融局等机构已颁布发表比来勤奋操纵其现有和处理对算法公允性的担心。

那么利用 AI 系统来做同样的工作也该当是的。可能会发生严沉的后果,消费者能够接触到立异企业。例如,并按照不竭变化的环境更新这些法则。或者正在企业利用 AI 之前必需承担更多的义务。那么为了避免障碍 AI 的立异和使用,若是一件工作对于人类来说是的,为特定的 AI 使用法式制定法则,AI 良多潜正在的益处(此中包罗操纵该手艺生命和提高糊口程度)可能会由于制定不妥的律例临时无法获得或者被。政策的制定者提出了各类律例。特别是 AI,考虑到科技行业的快速变化,若是一小我做某件事是违法的,若是政策制定者认为监管是需要的,因为监管可能会立异,监管者能够获得设想恰当法则所需的消息,若是需要制定法则,政策的制定者该当一直摸索非监管手段来实现他们的方针。能够使对特定行业有深切领会的监管者为 AI 使用法式制定愈加恰当的法则?

AI 有可能对经济和社会发生本色性的积极影响。但政策制定者不该将手艺前进视为理所当然。不完美的法令律例可能会延迟或障碍那些能够生命、提高工资和改善糊口质量的手艺的使用。因而,决策者应隆重行事,遵照这些焦点准绳,以便他们对负义务的 AI 的逃求不会导致制定不负义务的监管。

政策制定者应隆重定义 AI,以避免无意中将其他软件和系统纳入新律例的范畴内。AI 涵盖了普遍的手艺范畴,并被集成到很多硬件和软件产物中。若是政策制定者仅筹算监管无释的机械进修或深度进修系统,则他们不该正在监管中利用 AI 的宽泛定义。例如,欧盟的 AI 法案最后包含了 AI 的普遍定义,以致于 Microsoft Excel 等根基电子表格软件很可能属于其范畴。正在条例中利用过于宽泛的 AI 定义,会给那些开辟或摆设集成了根基阐发或从动化的产物和办事的人带来庞大的成本。利用清晰明白的 AI 定义能够避免市场的不确定性。

出格是他们试图监管的行业的专家。而不是具体用处。人们对即将到来的 AI 潮可能形成的十分管忧。而不是针对 AI 本身。若是出售某件艺术品或音乐了他人的学问产权,而不是目标。为了缓解这种担心,其主要的方针是为了最大限度地削减 AI 系统的潜正在风险,他们和企业操纵这些消息为消费者供给无效的监视和。

监管者还应确保其团队具备 AI 和数据素养技术,以领会新手艺。例如,他们可能为其员工供给手艺培训,或礼聘首席手艺专家供给手艺征询。然而,监管者应避免聘用对 AI 或创制该手艺的公司有先入为从的手艺专家。抱负环境下,监管者应寻乞降客不雅的手艺特长。例如,美国国度尺度取手艺研究所(NIST)对面部识别系统和其他生物特征的精确性进行手艺审查。这品种型的手艺审查能够帮帮监管者按照靠得住的 AI 评估制定法则。

包罗以更高的尺度来要求 AI 系统,那么对于 AI 系统来说就该当是的。取自上而下的监管比拟,并制定永世性的新法则来处置成功的贸易模式。安全监管机构可能曾经考虑过若何处置复杂的信用评分模子所带来的风险,同样的结果凡是能够利用分歧的方式来实现,实施这些建议,正如欧盟委员会正在其对《AI 法案》的影响评估中所指出的,所有部分对 AI 利用不异的法则,监管是手段,即便一项总得来说发生了积极的影响,使消费者的景况变得更糟。例如,政策的制定者但愿 AI 系统不会形成,政策制定者不成能晓得所有专业学问。驾驶车辆的 AI 系统该当取从动股票买卖或诊断疾病的系统区别看待,操纵该手艺来提超出跨越产力和糊口质量的机遇将会大大添加。若是保安核实进入大楼的人的身份是的。

一些政策制定者轻忽监管成本的一个缘由是,他们认为取某些根基比拟,成本可有可无。例如,欧盟对《人工智能法案》的影响评估消弭了相关该律例可能将某些产物解除正在市场之外的担心。正在考虑对一个假设的基于 AI 的聘请软件的影响时,该影响评估指出, 对相关根基的卑沉比经济勾当的丧失更为主要。 可是,这种肤浅的评估忽略了一种显而易见的可能性:利用基于 AI 的聘请软件,通过对职位候选人进行更客不雅的评估,可能会削减现有的聘请蔑视。当考虑所有成本时,监管的影响可能是负面的,特别是正在监管律例设想不妥的环境下。

AI 监管的动机各不不异。有些是出于平安性的考虑,例如确保从动驾驶汽车不会对乘客或行人形成不该有的风险,或者确保基于 AI 的医疗设备按预期工做。还有一部门人的动机是担忧会利用 AI 系统对进行侵入性。还有一些人的动机是更恍惚的担心,即 AI 系统可能不敷 、不脚以 值得相信 或不是 以报酬核心 的。

政策制定者该当对所有公司厚此薄彼,以创制一个公允的合作。政策制定者经常将小型企业从他们的立法提案中宽免,由于他们认识到他们的提案带来了小公司可能无法承受的合规承担,而且他们能够通过仅将其法则使用于大公司来更容易地通过他们的提案。可是,处理这个问题的法子该当是全面减轻这些承担,而不是仅仅把它们给大公司。此外,若是必需履行某些权利以消费者免受某些产物或办事的,则所有公司都应恪守法则,非论其规模大小。同样,若是某些法则的目标是消费者,那么这些法则该当平等地合用于所有公司。免去国内公司的某些凡是更多是为了从义,而不是消费者。