取消
搜索历史
热搜词
原创
活动
产业创新
转型理念
ENI专访
当前位置:首页 >文章发布 > 正文
论生成式人工智能中个人信息保护的困境纾解
来源:上海市法学会  作者: 严嘉欢 王昊 2024-01-29 10:32:13
生成式人工智能是人工智能技术的一次重大应用创新,但也带来了新的个人信息保护问题。为了规制生成式人工智能所带来的个人信息保护问题,必须强化用户知情同意机制,同时在该领域充分落实个人信息保护原则。

生成式人工智能人工智能技术的一次重大应用创新,但也带来了新的个人信息保护问题。现有的个人信息保护法所确立的信息保护制度框架尚不足以充分应对生成式人工智能所带来的新的挑战。生成式人工智能算法具有高度复杂性,在很大程度上架空了现有的用户知情同意机制。个人信息保护法所确立的最小必要原则等个人信息保护原则难以适用于生成式人工智能。为了规制生成式人工智能所带来的个人信息保护问题,必须强化用户知情同意机制,同时在该领域充分落实个人信息保护原则。

一、生成式人工智能信息保护的发展现状

生成式人工智能(Generative AI)是一种能够通过分析训练数据以及学习模型来生成文本、图片、声音、视频、代码等内容的人工智能技术。以ChatGPT为代表的生成式人工智能人工智能技术的一次重大应用创新,其能够从大量数据中进行学习并对海量文本数据集进行训练后形成复杂和近似智能的文本内容。生成式人工智能也具备人工智能技术的一般性特征,即能够在数据投喂的过程中不断成长学习,进行迭代升级。由此可见,生成式人工智能的智能程度直接取决于其所拥有的数据库规模。训练数据参数规模越大,生成式人工智能的功能就越强大。此外,不同于以往的人工智能,生成式人工智能不仅能够提炼信息,还可以通过利用现有的数字内容检查训练实例创建人工遗迹并学习其模式和分布。以ChatGPT-4为例,其具有高度类人性,能够通过“自然语言处理”(NLP)训练模型不断提高语言风格的拟人化程度。

然而,正是因为生成式人工智能对训练数据库规模的依赖性,生成式人工智能在便利人们生活的同时,也带来了巨大的个人信息安全隐患。目前我国已经出台了网络安全法、数据安全法、个人信息保护法等一系列法律,基本构建了完整的网络安全保护、数据安全保护和个人信息安全保护框架,但是在应对生成式人工智能所引发的个人信息保护问题上依然存在缺乏针对性的弱点。基于此,国家互联网信息办公室于2023年4月起草了《生成式人工智能服务管理办法(征求意见稿)》,并向社会公开征求意见。该办法第4条和第5条明确了生成式人工智能产品或服务提供者的个人信息安全保护义务;第7条则明确了个人信息保护“知情同意”规则亦适用于生成式人工智能领域,即生成式人工智能提供者将公民个人信息用于生成式人工智能产品的预训练和优化训练数据必须经过个人信息主体同意或者符合法律、行政法规规定的其他情形;第13条要求提供者建立“用户投诉接收处理机制”,从而确保能够及时处置个人关于更正、删除、屏蔽其个人信息的请求。

二、生成式人工智能信息保护的现存困境

虽然《生成式人工智能服务管理办法(征求意见稿)》在一定程度上回应了生成式人工智能背后所暗藏的个人信息安全保护问题,但是其所明确的“知情同意”机制仍然具有模糊性,相应的个人信息保护原则也面临着嵌入困境。

(一)用户个人知情同意机制的模糊性

事实上,用户知情同意机制的模糊性是目前生成式人工智能中个人信息保护问题的根源之一。而用户知情同意机制的模糊性也主要是因为生成式人工智能所采用的算法具有较为复杂的特殊性。总体来看,生成式人工智能算法与传统的算法具有较大的差异,以ChatGPT为例,其使用的算法为高级而复杂的神经网络算法(见图1)。

\

图1 ChatGPT底层神经算法原理

ChatGPT所采用的神经算法除了输入层神经元与输出层神经元之外,还包含隐藏层神经元。隐藏层神经元的存在正是算法黑箱问题进一步加剧的原因,即ChatGPT的用户只能观测到ChatGPT输入端和输出端中的相关信息,而对于隐藏层神经元中的算法分析过程一概不知。此外,ChatGPT所采用的神经算法也并不是单一的而是多元化的。Transformer模型包含的卷积神经网络(CNN)、循环神经网络(RNN)等是GPT内在运作逻辑的基础,通过模仿人脑的神经网络在大体量的数据库和高强度算力下完成深度学习,能够应用于体育传媒产业的市场分析与决策。因而可以看出,生成式人工智能的算力非常强大,可以迅速整合碎片化的信息并且提取关键性要素。在GPT-3基础上开发的ChatGPT达到1750亿个参数,而GPT-4模型参数量约为10万到100万亿量级,即GPT-4拥有更庞大的神经网络架构和参数量。ChatGPT如今在我国有着非常丰富的应用场景,例如律师行业、投资行业、咨询行业等等,主要原因是目前ChatGPT以其低廉的运行成本却实现了如此高效的问题检索、信息整合与准确回答,因而ChatGPT被我国诸多公司青睐,被运用在诸多行业之中。ChatGPT是将人工智能技术与其他多种技术叠加并综合发生作用而形成质变的产物,并不单纯聚焦在人工智能技术层面,而是包括Transformer、AIGC、自监督学习、人类反馈强化学习、复杂神经网络、AI对齐等技术。这些技术的有机结合实现了大模型带来的智能能力、指令学习能力及用户意图捕捉与理解能力,正是这些技术加持的多种能力糅合实现了ChatGPT的质变效果。本质上,正是因为Chat‑GPT的质变效果给个人信息保护带来了巨大的难题,复杂的神经网络算法、庞大的开源数据库、实时性的算法训练与矫正,这一系列因素的叠加都直接导致ChatGPT已经脱离了算法代码工程师这一ChatGPT设计师主体所能够掌控的范围了。ChatGPT的模型通过神经网络学习训练内容,算法自身在不断地学习基于各种高维变量之间的关系做出了决定,如果对这一特定类型的数据结果进行调查取证,则可能连理性的人都无法预见算法做出决定的依据,甚至连设计者自身也很难模拟当时的发生情境。ChatGPT本身复杂的神经网络算法使得用户的知情同意形同虚设,这本质上是ChatGPT的算法异化的发展表现之一。

正是因为ChatGPT所采用的神经算法的特殊性,传统的算法透明披露机制对于ChatGPT并未能够起到有效的规制作用,这也加剧了用户知情同意的模糊性。ChatGPT在内的生成式人工智能均使用了神经网络,因神经网络技术的特征,要求这类应用达到算法透明化客观上非常困难,若强制要求透明化可能会阻碍神经网络技术的应用。由此可见,如果想要对于ChatGPT构建一套算法透明化的运行机制,实质上可能适得其反,同时因为ChatGPT本身的神经算法的特殊性加剧了算法黑箱的问题,这也将会导致ChatGPT的使用者对于隐含层神经元的计算流程并不明晰,这也就导致了个人信息知情同意条款在ChatGPT中形同虚设的问题。

此外,ChatGPT中个人信息的知情同意模糊问题还着重体现在用户也可以对于其他用户的相关个人信息进行分析操作,这也就加剧了ChatGPT中知情同意模糊性的问题。ChatGPT目前开放给公众使用的3.5以及4.0版本,本质上还是为了通过海量的数据分析计算,提升ChatGPT算法模型的精准度,因而实质上ChatGPT会对于输入的所有数据进行全盘接收,同时输出相应的结果。因而实质上,每一个时刻都有海量的数据输入给ChatGPT进行分析与计算,其中不乏大量的个人信息。但是实质上目前存储在ChatGPT中的诸多个人数据并非个人信息所有者本人输入的,很有可能是别人输入进ChatGPT之中的,对于旁人的知情同意并不能够替代本人的知情同意,这也是ChatGPT在知情同意方面模糊性的另外一大体现之一。虽然ChatGPT本身设置了部分敏感信息回答的回避机制,但是这些回避机制也仅仅是针对ChatGPT输出端用户的回答回避,并不意味着ChatGPT本身在隐含层神经元并未对于已经输入的相关个人信息进行处理和储存。因此,ChatGPT本身对于用户设置的相关隐私条款并不能够阻止ChatGPT本身对于这些个人信息进行相应的处理。同时,ChatGPT对于个人隐私处理输出的算法也依然存在不完善的地方。ChatGPT会根据隐私回避条款对于涉及个人信息的部分问题进行回避,但是如果相关问题替换为其他更为隐晦和侧面的方式提问,以绕开ChatGPT设置的隐私回避条款,则ChatGPT仍然会对于这些问题进行分析和处理,并且输出相应的分析计算结果。因而实质上,ChatGPT本身并未能够设置完善的算法回避个人信息类的处理分析回答,同时ChatGPT也并未能够保证自身在尚未获得个人信息所有者的知情同意的前提下,再对于所获取到的个人信息进行相应的处理与分析。由此可见,无论是对于使用者还是ChatGPT本身而言,其所采用的神经网络算法都并未能够充分回应个人信息保护中的知情同意原则,这仍然存在较大的问题。

从实际案例的角度上来看,ChatGPT的知情同意的模糊性问题也充分体现出来了。目前在美国已经出现了ChatGPT侵犯个人信息的相关诉讼案例。2023年6月29日,16名匿名人士近日向美国加利福尼亚州旧金山联邦法院提起诉讼,称ChatGPT在没有充分通知用户或获得同意的情况下收集和泄露了他们的个人信息。据此他们向微软和OpenAI索赔30亿美元。诉状还称,就个人身份信息而言,被告未能充分地将其从学习模型中过滤掉,使数百万人面临着个人信息立即或以其他方式向世界各地的陌生人披露的风险。在这个案件中,ChatGPT很明显在尚未获得用户的知情同意的前提下,就直接将用户的个人信息放置在自身的数据库中,通过神经算法进行相关的分析与计算,这就存在较大的个人信息泄露的风险。如果,世界上的其他ChatGPT用户在ChatGPT中输入特定人员的身份信息,在ChatGPT个人信息算法回避机制不完善的前提下,极其容易出现ChatGPT在输出端直接将该个人信息输出给其他陌生的ChatGPT用户的情况。同时,ChatGPT甚至可能会出现依据现有的个人信息,编造、捏造虚假的事件从而诽谤、污名化不特定用户的情况。例如澳大利亚赫伯恩郡市长布莱恩·胡德要求OpenAI公司删除ChatGPT生成的“他曾因受贿而在监狱服刑”的不实消息,引发了ChatGPT自动文本服务的首起诽谤诉讼。由此可见,虽然时常可见ChatGPT在输出端告知用户,ChatGPT仅仅是一款人工智能,仅仅会输出客观的结果,并不能够进行主观的判断与分析,在涉及国家政策、个人隐私等方面会进行回避。但是仍然能够发现,ChatGPT实质上仍然会进行主观判断,也时常会基于个人信息捏造、夸大相关分析结果。ChatGPT在对于特定主体的个人信息造成侵权的同时,也对于特定主体的名誉权造成了侵权,形成了各类的诽谤问题。因此,总体来看ChatGPT的算法工程师在设计ChatGPT网络神经算法的时候虽然通过关键词、判断语句等方式对于ChatGPT设置了分析输出的规避,但是这些输出与分析的回避算法的设置并不是绝对,ChatGPT设置的回避关键词是无法穷尽的,同时ChatGPT的判断回避也能够通过其他方式进行迂回式的分析结果索取。因而,ChatGPT并不能够在充分获得用户知情同意的情况下,对ChatGPT用户的个人信息进行相应的数据处理。

(二)个人信息保护原则嵌入的困难性

对于ChatGPT而言,在产品设计之初就并未将个人信息保护原则作为产品的主要基础原则,这也就直接导致目前ChatGPT深陷个人信息保护的诉讼困境之中。ChatGPT的个人信息保护原则嵌入的困难性主要体现在三个方面:

第一,ChatGPT难以使用个人信息保护原则来取代算法运行中的高效性和准确性原则。个人信息保护原则是诸多国家的共识,例如欧盟的GDPR与数据治理法案、美国的HIPAA、日本的个人信息保护与次世代医疗基础法等之中都体现出不同国家对于个人信息保护的相关立法实践。ChatGPT本质上是属于生成式人工智能工具,同时ChatGPT本身并不仅仅是开发者这一国家的问题,目前ChatGPT已经处于全球化使用的发展趋势之下。因而,从个人信息的保护的角度上来看,ChatGPT不仅仅需要满足诸多国家的个人信息保护要求,同时还需要满足国家间签订的国际协定中个人信息保护方面的相关要求,例如CPTPP、RCEP等国际协定中都有相关的个人信息保护的要求。然而,事实上目前ChatGPT一类的自动生成式人工智能技术尚未很好地实现用户的个人信息保护。主要原因在于,首先,不同国家的个人信息保护标准不同,ChatGPT难以通过算法设定在不同的国家满足差异化的个人信息保护标准,更不用说还需要满足国际协定中诸多高标准要求。ChatGPT可选的最为经济的方式就是选择诸多运营的中最高个人信息保护标准,并将这一最高标准内化到ChatGPT的算法底层原理之中,但是这仍然存在较大的信息保护合规的经济运行成本的问题。此外,ChatGPT并未将个人信息保护原则完全内化、渗透到ChatGPT的底层神经网络算法和机制之中。同时,ChatGPT也并未将个人信息保护的原则的运行优先级设置为最高,这也就导致了目前ChatGPT的运行仍然是以满足用户多样化需求、最大程度创造企业利润、最大程度修正ChatGPT运行的错误答案、构建更为完善的ChatGPT神经网络算法模型这些原则与逻辑运行的。ChatGPT究竟将个人信息保护原则置于何地、置于何种优先级之上,这并不是ChatGPT用户所能够知晓的。

第二,ChatGPT难以将最小必要的个人信息收集原则嵌入到运行机制算法之中。ChatGPT运行底层逻辑之中对于数据纠正的迫切需求和对于数据输入的贪婪渴望,和个人信息保护中的最小必要的收集原则之间本身是背道而驰的,这也就直接导致了ChatGPT难以将最小必要的个人信息的收集原则嵌入到ChatGPT的底层运行机制与运行算法之中去。在医学领域,ChatGPT可以梳理文献、检索文献、从电子病历中提取信息、生成学术论文和病例报告、提供写作风格和格式的指导等。ChatGPT可能导致私人信息的泄露,尤其是在医疗领域,对于患者私人信息的收集和存储存在很多安全隐患。在GPT应用中就曾经出现过训练样本中的个人信息遭到泄露的多次先例。用户可能会向大模型中披露个人信息、商业信息甚至是商业秘密等,通过ChatGPT的工作机理不难发现,用户在使用过程中的输入和交互信息也同样会被用于其的持续迭代训练,那么如何保障这些信息安全就存在很大的隐患。由于ChatGPT在应用过程中不可避免地会搜集、储存、使用等相关的信息数据,ChatGPT含有巨量信息数据的语料库也采集了用户输入的个人数据,这些私密信息一旦被泄露或者非法使用,会危及公民个人的隐私和财产安全。ChatGPT本身的算法原理就是神经网络算法,因而ChatGPT主要是对于用户输入的相关数据进行分析,并通过分析已有的数据库以及训练集,模拟人脑的思考过程,检索出最适合的解答并输出给ChatGPT的用户,以满足ChatGPT用户多样化的需求。因而,ChatGPT本身的底层逻辑就是尽可能输入多元化的、广泛性的数据,并通过对于数据的分析运行为ChatGPT所在的公司获得相应的利润,并且吸引更多的用户流量,用以形成数据矫正的良性循环。不难看出,Chat‑GPT的运行机制就决定了ChatGPT本身处于贪婪获取输入数据的阶段,ChatGPT还会有许多自发性的举动,这也就意味着ChatGPT的底层基础算法原理决定了,ChatGPT可能暗含擅自突破网络防线、擅自获取用户个人信息的自发行为,这也就意味着最小必要的原则事实上很难嵌入到ChatGPT的神经网络运行机制与运行算法之中。这也是ChatGPT算法设计师、ChatGPT用户以及世界各国的执法监管机关所需要警惕与重视的。

第三,ChatGPT难以将已经输入的个人信息进行彻底性的删除。用户个人信息删除权实际上是存在行使困难的问题的,虽然OpenAI的隐私政策中规定了用户拥有对其个人信息的查阅、更正以及删除权利等,但考虑到请求生成式人工智能系统删除数据的复杂性特征,对于开发者能否真正删除个人信息的存在痕迹并满足现有合规的要求仍具有很大不确定性。事实上,ChatGPT的学习算法逻辑决定了其并不能够像人类一样进行遗忘,其只能通过被投喂新的训练数据来提高自己的表现。

因此,ChatGPT并不会遗忘数据,只是更加专注于新的数据,但这显然会架空公民的个人信息删除权ChatGPT所使用的神经网络本身是有一层暗含的神经元层,这一层的运行对于用户而言完全是不可见的,因而ChatGPT的用户往往只是面对着ChatGPT这巨大的算法黑箱而无可奈何。ChatGPT的用户只能相信ChatGPT会对于个人信息履行相关的删除义务这虚无缥缈的承诺,却无法明确确保自身的个人信息彻底从ChatGPT信息数据库中被移除。此外,虽然ChatGPT运营公司声称其GPT系列模型训练数据主要来自公共的网络文本,并非用户的个人数据,但不可否认的是很多个人信息已然出现在了公共的网络文本库中。易言之,ChatGPT只能保证不进行新的个人信息收集活动,而不能确保其训练数据库中不含有个人信息。因此,保障公民能够通过个人信息删除权剔除以ChatGPT为代表的人工智能生成训练数据库中所存储的个人信息势在必行。

三、生成式人工智能信息保护的困境纾解

(一)强化用户知情同意机制的适用

针对上述ChatGPT现存的用户知情同意机制的模糊问题,建议采取强化用户知情同意机制的适用的方式,纾解ChatGPT一类自动生成式人工智能的现存困境,具体可以从以下三个方面进行改进:

第一个方面,明确用户知情同意机制在ChatGPT底层深层算法逻辑中得到适用与明确。正是因为ChatGPT的底层神经网络算法错综复杂,无法通过传统的算法透明机制的建设来实现ChatGPT算法理念的有效披露,先不说披露ChatGPT相关算法可能会阻碍并限制ChatGPT的自然发展,即使ChatGPT将相关的神经网络算法披露给用户,也鲜有用户可以拥有足够多的计算机算法基础知识明确获知该神经算法的运行基本原理以及该神经网络算法对于用户的知情同意权益可能会造成的损害,这不仅需要ChatGPT用户具备扎实的计算机算法原理基础知识,同时还需要对于法律制度与知情同意合法权益具有较为清晰的认识,如此高的计算机与法律知识的要求,并不是每位ChatGPT的用户都能够满足的。因而,在ChatGPT中构建算法透明机制并不是最为明智的选择,最佳的选择应当是直接将用户知情同意机制明确规定在ChatGPT的操作系统与操作算法之中。例如,在输入端方面,可以要求ChatGPT的算法工程师不断完善现有的神经网络算法,精准区分和识别用户输入的信息与数据是否涉及个人信息,如果涉及的个人信息问题则应当及时通过提示与预警机制的建设,以醒目的方式明确提醒ChatGPT用户输入的信息涉及个人信息,是否允许ChatGPT通过算法进行分析。在分析端方面,可以要求ChatGPT不断完善现有的分析算法,在尚未获得用户知情同意的前提下,将所获取到的用户个人信息与其他的信息进行区分的分类隔离处理。如果ChatGPT获得了用户的相关知情同意的授权,ChatGPT才可以将这些个人信息从个人信息隔离的数据库中提取出来,而后才能够将这些信息通过神经网络算法进行分析与总结。通过,明确知情同意提示的方式,尽可能从运行算法与逻辑的角度提升ChatGPT与用户之间个人信息知情同意告知义务的履行度。

第二个方面,ChatGPT应当建立相应的预警与防御机制,阻止他人将别人的个人身份信息上传到ChatGPT的云端进行相应的神经网络的算法分析。这个机制建立的困难点在于,目前ChatGPT并没有充足的权限获取到用户的个人身份信息,因而实质上ChatGPT也难以判断该身份信息是否属于某个特定输入的用户所有的。在未来ChatGPT的发展过程中,仍然需要着重注意对于特定个人身份信息的识别,同时也需要建立相应身份确认系统,确保每个用户只能对于自身的身份信息进行相应的上传和分析操作,分析中运用到的个人信息以及所得到的相应结果也应当由ChatGPT进行匿名化处理以及隔离操作,确保这些原始身份信息以及对于这些身份信息进行算法分析后所得到的输出产物也不会被别人所知晓,同时也不会出现在他人的ChatGPT输出端中。

第三个方面,ChatGPT应当在架设底层算法逻辑的过程中,确保ChatGPT的客观分析。理论上来说,ChatGPT应当是属于自动生成式人工智能工具,本身是客观的、不带有任何立场的,同时也是不带有歧视和偏见的。但是,因为ChatGPT的底层逻辑是神经算法,这一算法具有较强的特殊性,即该算法本身会通过不断地深度学习和神经算法分析,通过输入端输入和输出端输出的方式,不断优化ChatGPT自身的算法,以期能够搭建实现接近人脑思考的完美运算模型。然而这一想法仍然是虚假的乌托邦,虽然目前ChatGPT的算法准确率通过训练得到了较大的提升,但是这也将ChatGPT从客观公正的输出分析,转变为带有主观色彩地通过现有输入数据的分析,恶意揣测、捏造相关的虚假信息。这也就直接导致了ChatGPT目前频频出现输出虚假信息,甚至出现侵犯个人信息以及侵犯个人名誉权的虚假信息问题。这本质上是因为,ChatGPT底层的深度学习算法,使得ChatGPT在变得更像人类思考的过程中,也沾染了人类思考的主观性问题。因而,为了从这一底层逻辑改变ChatGPT对于个人信息的侵权,充分遵循知情同意原则,客观公正地处理与分析相关信息与数据,最为重要的就是进一步巩固ChatGPT底层客观公正的算法逻辑,充分遵循获得本人的知情同意后方可对相关数据进行分析的原则,将后期学习所得到的浓烈主观判断的人类思维从ChatGPT运行算法与机制中彻底根除,同时ChatGPT的运营与管理者也应当建立相应的算法预警机制,及时将敏感的个人信息以及虚假的诽谤信息从ChatGPT服务器中删除,避免ChatGPT再次出现个人信息侵权以及个人名誉侵权等严重的问题。

(二)强调个人信息保护原则的嵌入

针对上述ChatGPT现存的个人信息保护原则嵌入的困难问题,建议采取强调个人信息保护原则的嵌入的方式,纾解ChatGPT一类自动生成式人工智能的现存困境,可以从以下三个方面入手:

第一个方面,明确要求ChatGPT使用个人信息保护原则来取代算法运行中的高效性和准确性原则。凡是算法运行模型终会一套底层逻辑进行相应的规制,这也是算法机制搭建的核心。将算法技术嵌入个人信息权中是个人信息算法识别性的内在要求,即“经设计的隐私”。数据平台可以从一开始就将个人信息保护的需求通过设计嵌入系统之中,成为系统核心功能的一部分,成为商业实践的默认规则,给予个人信息全生命周期的保护。ChatGPT亦是如此,如果ChatGPT想要强调将个人信息的保护原则嵌入到ChatGPT运行全流程中,那么至关重要的就是要求ChatGPT摒弃现有的流量至上、效率至上、准确至上的运行逻辑,通过将个人信息保护原则作为顶层设计最高排序优先级原则的方式,彻底改变ChatGPT的底层运行逻辑。在排序取舍过程中,将个人信息保护原则优先于经济利益设置,也是诸多国家的做法,在强烈主张个人信息保护作为基本人权应优先于经济利益考量方面,最为典型就是欧盟。欧盟也是ChatGPT重要运营区域之一,因而将个人信息排序在经济利益之前,并将此作为ChatGPT的底层算法逻辑,并以此为根本出发点搭建ChatGPT的其他算法功能与运行流程,是ChatGPT不可回避的必行之路。

第二个方面,将最小必要的个人信息收集原则嵌入到运行机制算法之中。ChatGPT如同其他自动生成式人工智能一样,对于数据的输入与训练具有与生俱来的执着与渴望。ChatGPT作为算法模型,也有着对于完美、正确的天然追求,这也就导致ChatGPT容易剑走偏锋,误入个人信息过度收集的歧途。但是实质上ChatGPT的运行绝不是越多数据越好的,ChatGPT仍然应当在法律的制度框架下,在遵循个人信息保护的原则的基础之上收集相关的个人信息。因而,ChatGPT的运营者与算法工程师应当将最小必要的个人信息收集原则作为帝王条款嵌入到ChatGPT的神经网络运算的基本逻辑之中。同时ChatGPT应当构建相关的防火墙以及隔离机制,防止ChatGPT产生自主意识,恶意攫取用户的个人信息。

第三个方面,通过完善生成式人工智能提供者数据管理制度确保个人信息删除权的有效行使。在“记忆成为常态、遗忘成为例外”的背景下,立法需要引入“被遗忘权”(删除权)来矫正这种失衡。数据删除权以及被遗忘权是数据人格权的重要组成部分,数据人格权主要包括数据知情权、数据修改权、数据遗忘权,其所承担的任务主要是保障隐私空间,让大家享受大数据时代的美好生活。ChatGPT对于个人信息的保护,需要将个人信息删除权作为算法机制改变的重点方向,这也和域外以及我国的相关法律规定相印证。从域外的角度来看,欧盟已经明确规定了公民在数据领域的被遗忘权,为实现这一目的,GDPR赋予了个人十分广泛的权利,包括便携权、被遗忘权以及删除权等。从我国的法律规定的角度来看,我国个人信息保护法已经明确了公民的个人信息删除权,生成式人工智能提供者需要严格遵守相关规定,在组织内部建立数据删除制度,包括接收和确认删除请求、验证用户身份、定位和删除数据、反馈删除结果等过程。同时,企业应实施定期检查制度执行情况。从根源上来看,生成式人工智能提供者应当对模型训练数据进行更为严格的管理,避免算法收集和存储用户在使用服务过程中所透露的个人信息。

结语

大数据时代的发展趋势之下,对于大数据碎片信息的整合与分析能力成了目前算法工程师的算法设计的重大发展方向。在这个过程中,聚合了多种神经网络算法以及深度学习算法的ChatGPT应运而出,成为改变时代的万众瞩目的焦点工具。然而,在获取到ChatGPT所提供的便利的热潮中,也应当对于ChatGPT背后所暗含的个人信息侵权问题进行法律制度框架下的冷思考。ChatGPT已经呈现出算法异化的发展趋势,ChatGPT目前通过算法设计师事前架设的相关算法所得到的部分结果,已经脱离了ChatGPT算法设计师所能够预料到的范围,甚至造成了诸多的法律侵权纠纷问题,这也给自动生成式人工智能的发展敲响了警钟。ChatGPT已经是目前较为成熟的自动生成式人工智能工具,但是其在个人信息保障方面仍然存在较大的局限性,这也就不免担心其他的诸如照片生成式人工智能工具、PPT生成式人工智能工具、视频生成式人工智能工具等生成式人工智能工具是否能够切实遵循知情同意原则、最小必要信息收集原则、个人信息彻底删除原则等诸多个人信息保护原则,切实合法合规运营生成式人工智能工具。我国目前并未在境内放开ChatGPT的使用,主要也是因为ChatGPT一类的生成式人工智能工具,虽然能够赋能产业的发展,但是其背后所隐藏的个人信息保护问题和国家安全问题仍然需要加以谨慎思考与处理。在ChatGPT中,ChatGPT用户犹如行走在Chat‑GPT的黑暗森林之中,却并不清楚面前密不透风的黑箱法则的本质,用户只能任由ChatGPT侵吞与利用自己的个人信息,却无处诉苦、无法改变也无可奈何,只能在输入端和输出端窥见ChatGPT的一角。如果任由ChatGPT一类的生成式人工智能如此野蛮生长下去,终将会导致这些生成式人工智能脱离法律制度的掌控。如果ChatGPT一类的生成式人工智能脱离的法律监管的制度框架,那么就会导致ChatGPT算法设计师的算法规则以及ChatGPT自动学习掌握所得的算法规则成为主宰ChatGPT的用户的森林法则,而法律在ChatGPT领域将会变得苍白无力。因而,对于ChatGPT一类的生成式人工智能的法律监管显得尤为重要。如何将法律规则编码输入到这些人工智能工具之中,使得法律规则的优先级优先于算法规则,这是我国将来要对于ChatGPT一类的生成式人工智能所需要管控的。

免责声明:本文系网络转载,版权归原作者所有。本文所用图片、文字如涉及作品版权问题,请联系删除!本文内容为原作者观点,并不代表本网站观点。
编辑:刘婧
关键词:   人工智能  ChatGPT  数据库 
活动 直播间  | CIO智行社

分享到微信 ×

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。