当前位置:人工智能行业动态 → 正文

关于新的ai法案 每位ceo都需要了解的事 -ag凯发旗舰厅

责任编辑:cres 作者:bernard marr |来源:企业网d1net  2024-03-26 11:05:44 原创文章 企业网d1net

具有潜在危险的ai应用程序已被指定为“不可接受的”,除非在特定条件下用于政府、执法和科学研究,否则将是非法的。
 
与欧盟的一般数据保护条例一样,这项新立法将增加在27个成员国内开展业务的任何人的义务,而不仅仅是总部设在那里的企业。
 
负责撰写这份报告的人表示,其目的是保护公民的权利和自由,同时也促进创新和创业,该法案公布的460多页包含的内容远远不止这些。
 
如果你经营一家在欧洲运营或面向欧洲消费者销售的企业,你需要知道一些重要的事情。对于任何想要为潜在的重大变化做好准备的人来说,以下是我认为的关键要点。
 
它什么时候生效?
 
3月13日,欧盟议会通过了《ai法案》,预计在欧洲理事会通过该法案后,该法案将很快成为法律,它将需要长达24个月的时间才能全部执行,但某些方面的执行,如新禁止的做法,可能在短短6个月内开始执行。
 
与gdpr的情况一样,这种拖延是为了让企业有时间确保他们的合规。在这一最后期限之后,他们可能会因任何违规行为而面临巨额处罚,这些都是分等级的,最严重的保留给那些违反“不可接受的用途”禁令的人,最高罚金最高可达3000万欧元,或该企业全球营业额的6%(以金额较高者为准)。
 
然而,如果一家企业被发现违反了新法律,可能更具破坏性的是对其声誉的影响。在ai的世界里,信任就是一切,而那些表明自己不能被信任的企业可能会受到消费者的进一步惩罚。
 
ai的一些用途将被禁止
 
该法案规定,“ai应该是一项以人为中心的技术,它应该成为人们的一种工具,最终目的是增加人类的福祉。”
 
为了做到这一点,欧盟禁止将ai用于一些潜在的有害目的,包括:
 
·利用ai以有害的方式影响或改变行为。
·生物统计分类,以推断政治和宗教信仰或性偏好或取向。
·可能导致歧视的社会评分系统。
·在公共场所通过生物识别技术远程识别人的身份(例如面部识别系统)。
 
有一些免责条款。执法机构可以在一系列情况下部署“不可接受的”ai,包括防止恐怖主义和寻找失踪人员。科学研究也有豁免。
 
该法案称:“ai应该是一项以人类为中心的技术,它应该成为人们的一种工具,最终目的是增加人类的福祉。”因此,很高兴看到限制其可能造成危害的方式已成为新法律的核心。
 
然而,一些措辞存在相当大的模棱两可和开放性,这可能会让事情有可能被解释。使用ai来瞄准快餐和高糖软饮料等产品的营销,是否会被认为以有害的方式影响行为?在一个我们习惯于被众多政府和私人机构进行信用检查和评分的世界里,我们如何判断社会评分系统是否会导致歧视?
 
在这一领域,我们将不得不等待更多关于如何实施执法的指导或信息,以了解全部后果。
 
高风险的ai
 
除了被认为是不可接受的用途外,该法案还将ai工具分为三类:高风险、有限风险和最低风险。
 
高风险ai包括自动驾驶汽车和医疗应用等用例,涉及这些或类似风险领域的企业将发现自己面临更严格的规则,以及更多关于数据质量和保护的义务。
 
有限且风险最小的用例可能包括纯粹用于娱乐的ai应用,如视频游戏,或在生成文本、视频或声音等创造性过程中的应用。
 
尽管对知识产权的透明度和合乎道德的使用仍有期望,但这里的要求将会更少。
 
透明度
 
该法案明确表示,ai应该尽可能透明。再说一次,这里有一些模棱两可的地方——至少在像我这样不是律师的人看来是这样,例如,在需要“保护商业秘密和机密商业信息”的情况下,作出了规定,但目前还不确定,当案件开始提交法院时,这一点将如何解释。
 
该法案在两个方面涵盖了透明度,首先,它规定,必须清楚地标记ai生成的图像,以限制欺骗、深度假冒和虚假信息可能造成的损害。
 
它还涵盖了模型本身,似乎特别针对谷歌、微软和openai等大型科技ai提供商。同样,这也是按风险分级的,高风险系统的开发人员有义务提供关于他们做什么、如何工作以及使用什么数据的广泛信息,还围绕人的监督和责任制定了规定。
 
要求ai生成的图像被标记在理论上似乎是一个好主意,但可能很难执行,因为犯罪分子和欺诈者不太可能遵守,另一方面,它可以帮助建立一个信任框架,这将是使ai能够有效使用的关键。
 
至于大型科技企业,我预计这很可能归结为他们愿意透露多少的问题,如果监管机构接受可能的反对意见,即记录算法、权重和数据源是机密商业信息,那么这些条款可能会被证明是相当没有效力的。
 
然而,值得注意的是,即使是为利基行业和市场构建定制系统的较小企业,从理论上讲也可能受到影响。与科技巨头不同,他们可能没有法律火力在法庭上为自己辩护,这让他们在创新方面处于劣势。应注意确保这不会成为该法案的意外后果。
 
这对ai监管的未来意味着什么?
 
首先,它表明,在应对ai带来的巨大监管挑战方面,政客们正开始采取行动。虽然我总体上对ai对我们生活的影响持积极态度,但我们不能忽视它也有巨大的潜在危害,无论是故意的还是无意的。因此,任何运用政治意愿来解决这一问题都是一件好事。
 
但起草和发布法律是相对容易的部分,它正在建立监管、执法和文化框架,以支持需要真正努力的变化。
 
欧盟的ai法案是此类法案中的第一部,但人们普遍预计,继该法案之后,全球将出台进一步的监管措施,包括美国和中国。
 
这意味着,对于世界上任何地方的商业领袖来说,采取措施确保他们为即将到来的变化做好准备是至关重要的。
 
欧盟ai法案的两个关键教训是,每个企业都必须了解自己的工具和应用程序在风险等级上的位置,并采取措施确保其ai操作尽可能透明。
 
最重要的是,确实有必要了解不断变化的ai监管格局。法律运行的速度相对较慢,这意味着你不应该被吓到。
 
不过,最重要的是,我认为关键信息是围绕道德ai建立积极文化的重要性。确保你的数据是干净和不偏不倚的,你的算法是可解释的,任何潜在的危害都被清楚地识别和减轻,这是确保你为未来可能出现的任何立法做好准备的最佳方式。
 
企业网d1net(www.d1net.com):
 
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)。
 
ag凯发旗舰厅的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。

关键字:ag凯发旗舰厅

原创文章 企业网d1net

x 关于新的ai法案 每位ceo都需要了解的事 扫一扫
分享本文到朋友圈
ag凯发旗舰厅
当前位置:人工智能行业动态 → 正文

责任编辑:cres 作者:bernard marr |来源:企业网d1net  2024-03-26 11:05:44 原创文章 企业网d1net

具有潜在危险的ai应用程序已被指定为“不可接受的”,除非在特定条件下用于政府、执法和科学研究,否则将是非法的。
 
与欧盟的一般数据保护条例一样,这项新立法将增加在27个成员国内开展业务的任何人的义务,而不仅仅是总部设在那里的企业。
 
负责撰写这份报告的人表示,其目的是保护公民的权利和自由,同时也促进创新和创业,该法案公布的460多页包含的内容远远不止这些。
 
如果你经营一家在欧洲运营或面向欧洲消费者销售的企业,你需要知道一些重要的事情。对于任何想要为潜在的重大变化做好准备的人来说,以下是我认为的关键要点。
 
它什么时候生效?
 
3月13日,欧盟议会通过了《ai法案》,预计在欧洲理事会通过该法案后,该法案将很快成为法律,它将需要长达24个月的时间才能全部执行,但某些方面的执行,如新禁止的做法,可能在短短6个月内开始执行。
 
与gdpr的情况一样,这种拖延是为了让企业有时间确保他们的合规。在这一最后期限之后,他们可能会因任何违规行为而面临巨额处罚,这些都是分等级的,最严重的保留给那些违反“不可接受的用途”禁令的人,最高罚金最高可达3000万欧元,或该企业全球营业额的6%(以金额较高者为准)。
 
然而,如果一家企业被发现违反了新法律,可能更具破坏性的是对其声誉的影响。在ai的世界里,信任就是一切,而那些表明自己不能被信任的企业可能会受到消费者的进一步惩罚。
 
ai的一些用途将被禁止
 
该法案规定,“ai应该是一项以人为中心的技术,它应该成为人们的一种工具,最终目的是增加人类的福祉。”
 
为了做到这一点,欧盟禁止将ai用于一些潜在的有害目的,包括:
 
·利用ai以有害的方式影响或改变行为。
·生物统计分类,以推断政治和宗教信仰或性偏好或取向。
·可能导致歧视的社会评分系统。
·在公共场所通过生物识别技术远程识别人的身份(例如面部识别系统)。
 
有一些免责条款。执法机构可以在一系列情况下部署“不可接受的”ai,包括防止恐怖主义和寻找失踪人员。科学研究也有豁免。
 
该法案称:“ai应该是一项以人类为中心的技术,它应该成为人们的一种工具,最终目的是增加人类的福祉。”因此,很高兴看到限制其可能造成危害的方式已成为新法律的核心。
 
然而,一些措辞存在相当大的模棱两可和开放性,这可能会让事情有可能被解释。使用ai来瞄准快餐和高糖软饮料等产品的营销,是否会被认为以有害的方式影响行为?在一个我们习惯于被众多政府和私人机构进行信用检查和评分的世界里,我们如何判断社会评分系统是否会导致歧视?
 
在这一领域,我们将不得不等待更多关于如何实施执法的指导或信息,以了解全部后果。
 
高风险的ai
 
除了被认为是不可接受的用途外,该法案还将ai工具分为三类:高风险、有限风险和最低风险。
 
高风险ai包括自动驾驶汽车和医疗应用等用例,涉及这些或类似风险领域的企业将发现自己面临更严格的规则,以及更多关于数据质量和保护的义务。
 
有限且风险最小的用例可能包括纯粹用于娱乐的ai应用,如视频游戏,或在生成文本、视频或声音等创造性过程中的应用。
 
尽管对知识产权的透明度和合乎道德的使用仍有期望,但这里的要求将会更少。
 
透明度
 
该法案明确表示,ai应该尽可能透明。再说一次,这里有一些模棱两可的地方——至少在像我这样不是律师的人看来是这样,例如,在需要“保护商业秘密和机密商业信息”的情况下,作出了规定,但目前还不确定,当案件开始提交法院时,这一点将如何解释。
 
该法案在两个方面涵盖了透明度,首先,它规定,必须清楚地标记ai生成的图像,以限制欺骗、深度假冒和虚假信息可能造成的损害。
 
它还涵盖了模型本身,似乎特别针对谷歌、微软和openai等大型科技ai提供商。同样,这也是按风险分级的,高风险系统的开发人员有义务提供关于他们做什么、如何工作以及使用什么数据的广泛信息,还围绕人的监督和责任制定了规定。
 
要求ai生成的图像被标记在理论上似乎是一个好主意,但可能很难执行,因为犯罪分子和欺诈者不太可能遵守,另一方面,它可以帮助建立一个信任框架,这将是使ai能够有效使用的关键。
 
至于大型科技企业,我预计这很可能归结为他们愿意透露多少的问题,如果监管机构接受可能的反对意见,即记录算法、权重和数据源是机密商业信息,那么这些条款可能会被证明是相当没有效力的。
 
然而,值得注意的是,即使是为利基行业和市场构建定制系统的较小企业,从理论上讲也可能受到影响。与科技巨头不同,他们可能没有法律火力在法庭上为自己辩护,这让他们在创新方面处于劣势。应注意确保这不会成为该法案的意外后果。
 
这对ai监管的未来意味着什么?
 
首先,它表明,在应对ai带来的巨大监管挑战方面,政客们正开始采取行动。虽然我总体上对ai对我们生活的影响持积极态度,但我们不能忽视它也有巨大的潜在危害,无论是故意的还是无意的。因此,任何运用政治意愿来解决这一问题都是一件好事。
 
但起草和发布法律是相对容易的部分,它正在建立监管、执法和文化框架,以支持需要真正努力的变化。
 
欧盟的ai法案是此类法案中的第一部,但人们普遍预计,继该法案之后,全球将出台进一步的监管措施,包括美国和中国。
 
这意味着,对于世界上任何地方的商业领袖来说,采取措施确保他们为即将到来的变化做好准备是至关重要的。
 
欧盟ai法案的两个关键教训是,每个企业都必须了解自己的工具和应用程序在风险等级上的位置,并采取措施确保其ai操作尽可能透明。
 
最重要的是,确实有必要了解不断变化的ai监管格局。法律运行的速度相对较慢,这意味着你不应该被吓到。
 
不过,最重要的是,我认为关键信息是围绕道德ai建立积极文化的重要性。确保你的数据是干净和不偏不倚的,你的算法是可解释的,任何潜在的危害都被清楚地识别和减轻,这是确保你为未来可能出现的任何立法做好准备的最佳方式。
 
企业网d1net(www.d1net.com):
 
国内主流的to b it门户,同时在运营国内最大的甲方cio专家库和智力输出及社交平台-信众智(www.cioall.com)。同时运营19个it行业公众号(微信搜索d1net即可关注)。
 
ag凯发旗舰厅的版权声明:本文为企业网d1net编译,转载需在文章开头注明出处为:企业网d1net,如果不注明出处,企业网d1net将保留追究其法律责任的权利。

关键字:ag凯发旗舰厅

原创文章 企业网d1net

回到顶部
"));
"));

关于ag凯发旗舰厅联系ag凯发旗舰厅隐私条款广告服务ag凯发旗舰厅的友情链接投稿中心ag凯发旗舰厅的招贤纳士

企业网ag凯发旗舰厅的版权所有 ©2010-2024

^
网站地图