政讯通中心

欢迎来到廉政法治网!
当前所在:首页 > 八面廉风 > 正文

75号咖啡 | 人工智能时代的“光与暗”——ChatGPT的法律风险及法治应对

发布时间:2023-04-09 来源: 上海市人民检察院 作者:佚名

  法律沙龙

  编

  者

  按

  党的二十大深刻指出“加快建设数字中国”。《数字中国建设整体布局规划》要求强化数字技术创新体系和数字安全屏障“两大能力”,优化数字化发展国内国际“两个环境”。检察机关实施数字检察战略,明确以“数字革命”驱动新时代法律监督提质增效,突出对信息技术、人工智能、生物医药等新技术、新业态、新领域知识产权保护,依法打击侵犯企业关键核心技术知识产权犯罪,聚焦服务保障发展大局,激发技术创新活力。ChatGPT等新技术、新业态、新领域对于风险防控和司法供给需求更加强烈。“75号咖啡”围绕数字检察战略,以ChatGPT等新技术的法治应对为话题,举办系列法律沙龙。现在推出第一期,围绕ChatGPT的法律风险及法治应对展开探讨。欢迎大家持续关注,提供宝贵意见。

  

  content

  本期目录

  一、知己知彼:ChatGPT的缘起与应用

  二、潜在隐患:ChatGPT应用引发的法律风险

  三、未雨绸缪:ChatGPT等技术发展的法治应对

  

  

  

  本期召集人 曹 化

  闵行区检察院副检察长

  2022年11月底,美国OpenAI公司旗下的一款人工智能聊天机器人ChatGPT发布后,迅速在全球范围内引发关注。仅用了2个月时间,其全球范围内的活跃用户就达到了2亿,平均每天有1300万访客使用ChatGPT,创下用户增长速度的新纪录。其应用场景也随着用户和语料的增加逐渐拓宽,目前已知的应用场景有完成作业、写论文、写代码、写脚本、制定商业提案、翻译、创作诗歌、故事,甚至可以完成编写和调试计算机程序等高难度工作。有人预言,随着ChatGPT之类的人工智能的完善和推广,会对现有社会的工作结构和岗位要求带来全方位影响。ChatGPT在为人们带来巨大便利和惊喜的同时,潜在的法律风险也亟需引起重视和关注。

  

  一、知己知彼:ChatGPT的缘起与应用

  本期召集人 曹 化

  闵行区检察院副检察长

  ChatGPT的横空出世和火爆出圈,在全球科技界和网络上引起巨大反响。ChatGPT到底是什么?又是如何完成这么多领域、这么复杂问题的回答的?对于这些问题我们仍然存在很多困惑,请各位专家帮我们解读一下。

  

  应缜哲

  蚂蚁集团股份有限公司高级算法专家

  ChatGPT即聊天生成型预训练变换模型,是由美国人工智能研究实验室OpenAI开发的一款全新聊天机器人模型。“GPT”即指生成式预训练变换模型,可将其理解为某一类型的智能神经网络模型;“Chat”指其面向具体聊天应用领域,其吸引力在于人机对话模式的智能提升。ChatGPT与其他AI交互机器人不同,ChatGPT可以更好地理解人类意图,并进行专业性回答。ChatGPT能够通过学习和理解人类的语言来进行对话,还能通过聊天的上下文进行互动,并协作完成一系列任务。ChatGPT的基础功能在于内容生成、上下文互动、修改代码、多语言理解。从ChatGPT的发展历史来看,GPT1是最早的GPT模型,它通过预训练大量文本数据来学习语言特征,并利用这些特征来预测下一个词语;从GPT1、GPT2、GPT3、GPT3.5到GPT4,GPT模型经历了一系列的版本升级,在原有语言模型的基础上不断改进,并使用了更大规模的数据,在模型中增加了更多的参数。GPT4是 GPT模型的最新版本,随着版本的更新,GPT4在GPT3.5的基础上,数据规模与参数运用不断扩大,模型准确性得到进一步提升。ChatGPT则是一个基于GPT4模型的对话生成系统。它可以根据用户输入的内容生成自然的、连贯的对话。ChatGPT训练包括两个方面:一是预训练,通过足够多的文本数据学习,让模型“记住”海量信息,在高维抽象空间形成有条理的“数据库”;二是指令微调,通过多元化的指令数据学习,让模型知道每次命令怎么“检索与组织”输出相关的信息。那么是什么让ChatGPT不一样呢?主要集中在三方面原因:工程、数据、算法。工程方面,OpenAI利用大模型训练技术,能够显著提升生产效率。再利用大模型并发响应技术,通过开放API(应用程序编程接口,指计算机之间或者计算机程序之间的连接)带来更多数据;数据方面,OpenAI定义了大模型基本范式,即预训练+指令微调,提高模型回应提问的全面性,再通过定义RLHF(强化学习方式依据人类反馈优化语言模型),解决强化学习效率的问题;算法方面,OpenAI通过收集开源高质量数据,再过滤掉近40%无用数据,提高模型基线。设计团队又采用标注对齐策略,给模型提供标注数据,提高模型回应提问的准确性。

  

  张 勇

  华东政法大学教授、博士生导师

  正如刚才算法专家谈到的,ChatGPT作为一款人工智能模型,它会根据用户输入的文本生成一个符合人类语言逻辑的文本内容,可以被用于生成文章、编写代码、语言翻译等工作。这个过程必须提前通过对数量庞大的书籍、文献等参数的输入和训练,才能获得符合特定领域内人类表达习惯的文字结果。因此被纳入ChatGPT参数范围的数据库越大,它所生成的文本内容就越准确和人性化。它的核心技术之一是Transformer,即深度神经网络算法,一种采用注意力机制的深度学习模型。这种算法会根据输入的语音、图像和文字,提取其中的参数、分配不同的权重,并决定相应词汇被使用的概率,最终随机生成类似于人类语言表达的文字结果。

  

  翁音韵

  上海市检察院检察官

  刚才两位专家解读了ChatGPT的原理,我这里主要讲讲目前已知的ChatGPT的运用领域。ChatGPT主要运用于信息数据和智能服务领域,它可以与传统的搜索引擎相结合,更加“人性化”地识别和回复用户的问题。它也可以和人工智能、智能家居、线下公共场所的智能服务平台和咨询系统等结合,提升居家、办公、出游等不同情境下的智能服务体验。ChatGPT对于以文字、语音为主要交互模式的行业都将产生重大影响,人们可以用它来撰写文案、起草文书、修改作业甚至是课堂教学。据报道,目前ChatGPT已经延伸至司法裁判领域。2023年初,哥伦比亚法院在裁判中使用了ChatGPT的文本生成功能来增加说理依据。ChatGPT给出了具体的法律条款、适用情形、立法目的以及宪法法院判例等内容,有效提升了诉讼案件的处理质效。可以预见的是,经过大量的数据训练后,以ChatGPT为代表的大型语言模型将在辅助司法工作中发挥重要作用。

  

  崔 苗

  闵行区检察院检察官

  各位专家已经充分地介绍了ChatGPT是什么,我这里再补充几点。ChatGPT 是一种专注于对话生成的语言模型,通过学习大量现成文本和对话集合,能够像人类那样即时对话,流畅地回答各种问题,无论是英文还是其他语言都能够得心应手地运用。这样看来ChatGPT似乎无所不能。但现阶段ChatGPT仍存在一些缺陷。一是ChatGPT不具备人类的学习、逻辑推理和引申能力,在未经过大量对话训练的复杂、专业领域无法提供真实可靠的答复。二是ChatGPT研发门槛很高,需要巨大的算力完成语料数据训练和人工标注,服务成本高昂。三是ChatGPT无法及时完成在线资料和数据的更新,所提供的解答可能是基于过时数据和资料整合而成的,存在一定的滞后性。就我观看到的ChatGPT对话场景演示,其给出的答案的确存在一定的合理性,但跟一般人的回答仍存在表述习惯上的差别,也即虽然ChatGPT给出的答案符合逻辑、回应准确,也较为全面,但仍会让一般人觉得这段回答是人工智能编辑形成的,而不是普通人类所回答出来的。

  

  二、潜在隐患:ChatGPT应用引发的法律风险


  本期召集人 曹 化

  闵行区检察院副检察长

  ChatGPT的应用推广过程也并非无往不利,从公开的报道看已经有多所知名学校因担心作弊和不利于培养独立思考、批判性思维而禁止学生使用ChatGPT。多家世界知名企业要求员工限制使用ChatGPT,如摩根大通、亚马逊等知名国际公司均禁止员工将敏感信息、客户机密数据输入ChatGPT之类的聊天机器人。也有多家企业明确拒绝ChatGPT使用自己的数据或资料库。可见,ChatGPT运用过程中存在着一定的风险隐患。请各位专家分析下,ChatGPT等人工智能模型在国内可能产生哪些法律风险?

  

  张 勇

  华东政法大学教授、博士生导师

  我认为ChatGPT等人工智能模型不仅在法律性质上存在一定的争议,而且在应用过程中可能产生一定的法律风险。在法律性质层面,比如ChatGPT是否具备著作权法意义上的主体地位,ChatGPT生成物的法律性质与权属界定都存在争议。我国著作权法所称的作者,是自然人、法人或非法人组织。AI并非我国著作权法的“作者”,因此很难依据法律直接赋予ChatGPT以作者身份。即便少数明确通过立法承认AI生成内容可以获得版权保护的国家,其通常也是将计算机软件的开发者,或为生成过程作出实质性贡献的人赋予作者身份。而对于人工智能生成的内容能否当成原创性作品,也有不同的理解。根据我国著作权法第3条的规定,本法所称的作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。因此,从理论上讲,无论自然人创作的内容还是人工智能生成的内容,只要能满足上述条件都可以成为作品。但按照人工智能的工作原理,其目前还只能是对已有数据和信息的整合、编辑,难以真正做到“独创性”,因此不具备“作品”的构成要件。未来随着人工智能的不断升级和完善,不排除人工智能具备输出独创性内容的能力,可能符合“作品”的实质要求。现阶段,我国法律尚未对人工智能生成的内容是否可以称为作品作出明确规定。司法实践对此也存在不同理解。

  

  在法律风险层面,ChatGPT分别在“供给侧”和“使用侧”造成几类传统网络安全风险程度的加剧与变数的增多。在“供给侧”,我国大陆及我国港澳地区的ChatGPT使用处于IP“封禁”状态。国内用户无例外地是在通过VPN获取境外IP地址、通过虚设或借用域外手机号,以此实现注册与使用目的。这无疑是违反国内网络安全法和监管制度的行为。另外,此类“特殊需求”难免带来“另类商机”,已有大量VPN提供者、代注册或供号“中间商”乃至山寨GPT销售者涌现于各类交易平台,类似网络安全违法行为和犯罪行为激增。在“使用侧”,ChatGPT的强大功能与使用便利性使得本就规制乏力的“深度伪造”技术进一步“加量降价”,输出内容极易沦为网络犯罪工具。例如,不法分子可能利用 ChatGPT 的快速组织语言的能力,批量撰写“钓鱼”邮件、制作诈骗“脚本”,使普通人更难识别网络诈骗。网络攻击者还可以使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码破坏网站,甚至引流媒体制造网络舆情,为网络谣言、网络暴力等黑灰产业链注入恶性力量。

  

  应缜哲

  蚂蚁集团股份有限公司高级算法专家

  ChatGPT可能引发的风险包括知识产权侵权风险、数据安全风险、技术伦理风险。我这里主要结合ChatGPT使用条款相关内容,就ChatGPT应用可能存在知识产权侵权风险与大家展开讨论。刚才张教授也谈到ChatGPT著作权的争议问题。我继续以著作权保护为例谈一谈。ChatGPT生成内容可能面临的著作权权属争议普遍存在于下列多组主体之间:第一,研发者与使用者之间。由使用条款第3(a)条可知,OpenAI公司向用户转让其对ChatGPT输出内容的所有权利及利益,一般认为AI的生成物不构成作品,AI生成物相关财产权益由使用者享有。但该条款同时又保留了OpenAI公司“在必要时使用内容以提供和维护服务……”的权利。在此,研发者所谓“必要时”的判断标准、“提供和维护”的行为限度均不甚明确,可能与使用者的既得权利产生冲突。第二,使用者与“输入”阶段所涉著作权利人之间。在著作权法语境下,开发者对受著作权法保护的作品进行使用时,必须在获得权利人许可,并支付相应的许可使用费后方属于合法使用。因此,人工智能未经许可使用作品的行为可能会因侵犯被使用作品的复制、改编、信息网络传播权等权利而落入到侵权困境中。如2023年1月,全球知名图片提供商华盖创意起诉热门人工智能绘画工具Stable Diffusion的开发者,称其未经许可从网站上窃取了数百万张图片。另一方面,开发者使用受版权保护的材料来训练AI语言模型,当用户获得的内容与原始作品过于相似,以至于可能会误导公众或混淆原始作品的来源,由此造成“过度借鉴”“过度形似”相关著作权利人的作品,进而引起侵权纠纷。第三,不同使用者之间。由于机器学习的性质,ChatGPT输出内容在不同用户之间可能不是唯一的,不同使用者可能基于相似的问题输入而收到AI相同的回答。此情形下,使用条款第3(b)条排除了任何一方对回应内容的权利归属,“基于迥异的问题输入收到相同回应”“回应只是相似并不相同”等情况也都可能产生对于输出内容的权属争议,但此处“相似内容”的处理规则同样不够完善。

  

  翁音韵

  上海市检察院检察官

  对于张老师所提到的ChatGPT的法律性质问题,我这里补充一下。一是ChatGPT能否拥有著作权法上的作者身份。我国著作权法所称作者,是指自然人、法人或非法人组织。人工智能并不具备独立意志,无法享有权利与履行义务,并不具备民事主体资格,因此依据现有法律还无法赋予ChatGPT作者身份。二是人工智能生成作品的可保护性问题。我国著作权法第3条规定,本法所称作品,是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。通说认为,独创性与创作意图是构成作品的必备法律要件。ChatGPT等人工智能是通过对已有的海量数据进行集成处理生成回答内容,但目前我国法律并未对人工智能生成内容可以构成作品作出明确规定。因此,ChatGPT所生成的作品是否具备独创性、ChatGPT等人工智能是否具备创作意图等问题还存在较大争议。三是ChatGPT生成内容的权益归属问题。根据OpenAI的使用条款,只要用户遵守条款,OpenAI就会将其输出内容所有权及相关利益转让给提供输入内容的用户。但提供输入内容用户所输入内容的本身还可能存在权益归属争议,且OpenAI也存在独有输出内容的限制转让条款。因此是否以司法实践中通常认为的以控制人工智能工具生成内容和使用用途的对象作为法律责任的承担者,认定用户为生成内容的权益所有者,尚无法简单定论。

  

  除前面几位专家提到的风险外,我认为ChatGPT应用还可能存在数据安全风险。首先,ChatGPT受大量互联网数据驱动,其对获得的数据集进行采集和整合后,再生成模仿人类语言模式的回应文本。故当ChatGPT回答用户问题时,会从受训练的数据库中进行数据分析甚至将数据分散进入个体用户手中,而当这些数据经多次转手甚至滥用时,这些数据的原所有权和保护就会被架空。

  

  其次,OpenAI的使用条款规定了OpenAI对任何用户输入和输出内容拥有广泛使用权以改善ChatGPT。在此逻辑上,数据的应用许可及限制的决定权也转交至ChatGPT一方。若用户在输入问题请求时,可能会无意间输入含有个人信息、金融、商业秘密在内的各种信息,则会侵害用户权益甚至导致隐私数据的泄露。尤其是现阶段,人工智能类软件多以境外科技公司提供为主,使用者提出的问题中可能涉及到有关国家安全、公共安全、公众健康以及经济运行等方面的数据。这种数据必将会传输到软件所在的境外母公司,由此造成国内数据的出境风险。

  

  最后,ChatGPT在所受训的数据源头中可能存在不合法、不合规、虚假甚至是完全错误的内容。并且根据训练AI所用的数据库不同,得到的结果也会有算法偏差。那么ChatGPT生成的内容会引发数据相关的法律风险,甚至可能作为数据犯罪的工具,用户可以根据利用获得的数据伪造虚假信息、攻击社交工程等从而破坏数据体系安全,还有可能产生文章造假、虚假广告等黑灰产业链。

  

  崔 苗

  闵行区检察院检察官

  我补充一点,ChatGPT应用还可能存在技术伦理风险。机器学习人类语言能力的过程,也是深度吸收隐含其中的各种偏见的过程。OpenAI在其官网上说明,尽管其努力使得ChatGPT拒绝用户不合理的请求,但生成的内容仍有可能存在包含种族歧视、性别歧视、暴力、血腥、色情等对法律和公序良俗造成挑战的内容。它的训练是人类反馈强化学习(RLHF)的方式,这种训练方式建立在人工智能训练师提供对话的基础上。因此,如果人工智能训练师按照自己的主观意愿和价值判断对ChatGPT进行训练,那么ChatGPT将会延续这种价值判断,甚至是训练师的偏见,将会诱发更多的伦理隐患,包括训练数据来源合规性、数据使用的偏见性、政治立场的倾斜性、学术造假的可能性以及对人类独立智能的负面影响等。这些问题对社会有着潜在的重大影响,因此值得加以更多探讨。

  

  三、未雨绸缪:ChatGPT等技术发展的法治应对


  本期召集人 曹 化

  闵行区检察院副检察长

  对于上述法律风险,我国立法机关或司法实务部门是否已经有所关注或已经进行了相关立法。如何进一步健全完善相关立法司法工作,请各位嘉宾立足于自身角度,为ChatGPT的风险防控建言献策。

  

  崔 苗

  闵行区检察院检察官

  我谈谈ChatGPT的立法问题。有人将数据比喻为21世纪的“石油”,数据安全的重要性日益凸显。为保护国家数据安全、保护个人信息数据权益、规制数据使用行为,我国先后出台了网络安全法、数据安全法、个人信息保护法等法律法规。在人工智能大发展的背景下,全国多地已经着手制定人工智能产业规划和发展条例。如2022年9月6日,我国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》正式公布,并于当年11月1日起实施。2022年9月22日,《上海市促进人工智能产业发展条例》经上海市十五届人大常委会第四十四次会议表决通过,并于同年10月1日起施行。条例不仅设置了科技创新、产业发展、应用赋能等章节外,还对产业治理和安全等方面作出规定。条例通过负面清单、分级治理等方式,划出“不可为”的范围,鼓励各类主体大胆探索;针对算力有高耗能属性、中小企业难以负担成本的问题,条例规定推动公共算力资源平台建设与利用;条例还提到设立人工智能伦理专家委员会,发挥其在人工智能领域伦理规范方面的作用。可见,国家一方面在鼓励、支持人工智能领域的创新和发展;另一方面,人工智能也对新时期社会治理提出了新挑战,各地也在加强数据安全和人工智能治理方面的立法。正如有些专家所言“人工智能超前半步即可,治理要紧紧跟上,不能超前也不能滞后”“立法既要包容开放,更要守住底线”。当前需要做的就是完善“以人为本”的人工智能治理体系,加快推动立法,统筹规划有关人工智能的法律、行政法规、部门规章、技术标准,形成政府规范、行业自律、企业自治、社会监督的多元人工智能治理机制。

  

  应缜哲

  蚂蚁集团股份有限公司高级算法专家

  我这里简单谈谈对于ChatGPT风险防控的看法。对于人工智能产品的风险防控问题,从技术角度而言,主要以上线前后为区分,在不同阶段开展风险防控。在上线前,ChatGPT等人工智能模型通过海量数据学习,形成基本的问题回应逻辑范式,技术人员通过数据筛查技术,进一步筛除无用数据、有害数据、风险数据等数据,保留具有时效性、正确性的高质量数据供人工智能模型进行输入学习,以在产品上线前降低数据风险。而在上线后,技术人员会对于ChatGPT等人工智能模型进行抽样检查、实时调试,尽量降低数据风险发生或者在相关风险发生后,及时进行处理。即使风险隐患已经形成,当前ChatGPT的主要数据来源相对固定、事后也可以通过技术手段进行数据溯源,确认相关责任主体,及时进行查处和改进。

  

  翁音韵

  上海市检察院检察官

  我补充一下。在立法层面,为应对人工智能等新兴技术带来的数字安全风险,个人信息保护法、数据安全法、互联网信息服务深度合成管理规定等一系列法律法规相继出台,发挥着较为显著的效用。比如2023年1月施行的互联网信息服务深度合成管理规定第6条指出,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。深度合成服务提供者和使用者不得利用深度合成服务制作、复制、发布、传播虚假新闻信息。转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。该规定明确指出了对于问答对话等文本生成技术的规制路径。不过当前我国立法体系可能仍缺乏对于人工智能的发展具有前瞻性、可操作性、指引性的专门性立法。人工智能发展中涉及的个人信息保护、数据共享等诸多法律问题也亟须立法明确,人工智能在中国整体监管有待进一步完善。检察机关作为国家法律监督机关,更应不断强化能动履职理念,依法严惩数字犯罪,加强新兴业态犯罪风险防控预警,健全数字领域法律法规与政策体系,促进人工智能等数字经济新兴业态的健康发展。

  

  

  张 勇

  华东政法大学教授、博士生导师

  针对上述ChatGPT应用中存在的法律风险,我再从刑法角度谈谈自己的看法。应当根据现行刑法规定,对其可能涉及的犯罪行为进行定罪处罚。其一,针对侵犯知识产权的情形,ChatGPT输出内容在不同用户之间可能不是唯一的,不同使用者可能基于相似的问题输入而收到AI相同的回应。如果使用者以文本检查、翻译等目的将其享有著作权的文字作品输入ChatGPT中。若其他用户输入类似主题的写作需求,ChatGPT可能通过信息网络将著作权人的作品进行非法传播,如果情节严重,其研发者或使用者可构成侵犯著作权罪。其二,针对数据泄漏的情形,ChatGPT使用的语言数据集包含敏感信息,如个人身份信息、财务信息等,且该数据集没有得到适当的安全保护,那么攻击者就有可能通过黑客攻击等手段获取这些敏感信息。由此,攻击者则可能构成非法获取计算机信息系统数据、非法控制计算机信息系统罪等。其三,针对其他非法利用ChatGPT情形, VPN提供者、代注册或供号“中间商”乃至山寨GPT销售者违反网络安全法的相关规定,非法进行账号买卖的,可能构成非法经营罪。利用 ChatGPT撰写“钓鱼”邮件、制作诈骗“脚本”;使用自然语言来让ChatGPT生成相应的攻击代码、恶意软件代码破坏网站;引流媒体制造网络舆情、散播网络谣言、实施网络暴力等行为的,根据刑法第287条对利用计算机实施有关犯罪的规定,应当依照相应的罪名定罪处罚。其四,在ChatGPT管理者责任方面,ChatGPT的提供者不履行法律、行政法规规定的信息网络安全管理义务,致使违法信息大量传播、用户信息泄露并造成严重后果等,经监管部门责令采取改正措施而拒不改正,则可能构成拒不履行信息网络安全管理义务罪。

  

  崔 苗

  闵行区检察院检察官

  如同各位专家提到的,刑法上对于上述风险的规制,主要分为两个方面。一方面是追究网络服务提供者的责任,若ChatGPT此类软件的提供者,没有有效监管自己的数据源,造成侵犯知识产权的内容传播,或者用户信息泄露的,要承担相应的侵权责任;导致部分危害国家安全、政治安全的内容大范围传播,并造成严重后果的,可能构成拒不履行信息网络安全管理义务罪。另一方面,对于ChatGPT生成的内容被用于犯罪,例如模仿他人的聊天模式生成的语言,被用于诈骗或其他犯罪,软件提供者应强化审慎义务,注重合规制度建设,避免违法犯罪现象发生。

  

  法律具有滞后性,同时刑法应当具有谦抑性。ChatGPT的法治应对并不在于抑制、限制技术发展和应用,而是希望促进技术发展的同时,让技术更好地在法律范围内为人们服务。首先,从立法的角度,可以通过有关部门出台相应的行政法规,完善对于新型AI技术公司作为网络服务提供者的法律义务,使得高新科技公司有法可依。其次,从能动履职的角度,检察机关可以融合发挥“四大检察”的作用,加强检企联动,送法进企业,为高新科技公司在数据安全、知识产权保护等企业合规方面提供更多的帮助。最后,从宣传的角度,司法机关可以加大对新兴事物和新型诈骗犯罪的宣传力度,让群众更多地了解新兴事物、新兴技术,并加强个人信息和自身权益的保护,防止个人信息、商业秘密泄漏,避免被他人以ChatGPT类似的噱头骗取钱款。

  

  本期召集人 曹 化

  闵行区检察院副检察长

  今天各位专家为我们解读了ChatGPT的来龙去脉,从各个角度解析了未来可能存在的风险,并提出了宝贵建议。检察机关将密切关注人工智能的新发展、新动向,立足防范风险、严格司法、服务社会的宗旨,进一步发挥检察职能。感谢各位专家!

  

  文稿整理:闵行区检察院 周保强蒋昊

  嘉定区检察院 曹俊梅

  

  数智时代的司法观系列回顾

  

  ◆75号咖啡|“智慧检察”的可能与限度

  ◆75号咖啡|数字时代的司法观(一):司法人工智能开发的原则与政策

  ◆75号咖啡|数字时代的司法观(二):法律人工智能的技术、理论与应用问题

  ◆75号咖啡|数字时代的司法观(三):深耕数据治理 赋能检察未来——“十四五”期间检察业务数据应用与发展

  ◆75号咖啡|未来已来!自动驾驶汽车的挑战及法律应对

  ◆75号咖啡|数据霸权:“大数据杀熟” 等滥用用户数据行为的检察之治

  ◆75号咖啡|数据安全法与检察职能作用发挥

  ◆75号咖啡|守护你的“刷脸”安全——人脸信息安全的公益保护思考

  ◆75号咖啡|不准随便动我的“脸”——生物识别技术的风险与应对

  ◆75号咖啡|数据爬虫的法律合规

  ◆75号咖啡|“刷脸”时代的“护脸”秘籍!——人脸信息处理的法律风险与检察应对

  ◆75号咖啡|元宇宙相关问题的社会治理(上) 科普篇——元宇宙的基础问题

  ◆75号咖啡|元宇宙相关问题的社会治理(中) 风险篇——元宇宙发展中的问题

  ◆75号咖啡|元宇宙相关问题的社会治理(下) 治理篇——元宇宙发展中问题的治理

  ◆75号咖啡|元宇宙发展中的法律风险与应对之一:技术和数据篇

  ◆75号咖啡|元宇宙发展中的法律风险与应对之二:知产篇

  ◆75号咖啡|元宇宙发展中的法律风险与应对之三:金融篇

  

  留言有

  感谢三位网友的精彩留言

  请在后台留下您的联系方式

  我们将寄出“75号咖啡”专属马克杯

  本期继续欢迎大家在留言区

  留下您的精彩评论或意见建议

  帮助“75号咖啡”更好进步

  我们将对点赞最高的一条评论

  送出“75号咖啡”专属马克杯

  


原文链接:https://mp.weixin.qq.com/s/vWyQWEfQfGIu7M3yKaQOLg
[免责声明] 本文来源于网络转载,仅供学习交流使用,不构成商业目的。版权归原作者所有,如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间处理。

本站部分信息由相应民事主体自行提供,该信息内容的真实性、准确性和合法性应由该民事主体负责。廉政法治网 对此不承担任何保证责任。
本网部分转载文章、图片等无法联系到权利人,请相关权利人联系本网站索取稿酬。
北京中农兴业网络技术有限公司主办 | 政讯通-全国政务信息一体化办公室 主管
廉政法治网 lzfz.org.cn 版权所有。
联系电话:010-56212745、010-53382908,监督电话:18518469856,违法和不良信息举报电话:010-57028685
第一办公区:北京市东城区建国门内大街26号新闻大厦5层;第二办公区:北京市西城区砖塔胡同56号西配楼
邮箱:qgfzdyzx@163.com  客服QQ:3206414697 通联QQ:1224368922