目前,人工智能大模型已可以协助我们处理很多的事务,从日常制定旅行计划,到工作中的合同审查,甚至宣传讲课需要的PPT,只要简单的一段话,最快在一分钟内就可以获得满意的答案。但是,法律事务是一项专业的工作,接触到的任何材料都可能有敏感信息,甚至是涉密信息,稍不注意就有泄密风险;此外,人工智能大模型更可能胡编乱造,输出的信息存在虚假的可能,从而影响最终的结果。
笔者将通过本文,以律师视角,简述人工智能大模型赋能法律事务的优劣势与注意点,希望可以帮助各位读者有效利用人工智能大模型,高效、高质量地完成相关法律事务。
一、人工智能大模型的发展历程
人工智能(Artificial Intelligence,简称AI),属于计算机科学的一个分支。从1940年代,英国数学家阿兰·图灵就开始憧憬“能思考的机器”,并发表了论文《计算机器与智能》,提出著名的图灵测试来探讨机器是否具有智能。随着技术的不断发展,仅仅过去了80年,计算机由真空管加电线、需要占据一大个房间,变为了指甲盖大小的芯片加集成电路板,计算能力呈指数型增长;通过不同的电路设计,从刚诞生时可进行简单的算术运算到现在处理复杂任务,可以说现代计算机相当于无数个智力值全满的永远不知疲倦的人随时为我们提供服务。
从上世纪末开始,IBM公司的对齐模型开创了统计语言建模的先河。从此各大科技公司开始对人工智能大模型进行研究,其后发展出了GPT系列、Gemini、文心一言、通义千问等不同的大模型。
2024年12月,杭州深度求索人工智能基础技术研究有限公司推出了DeepSeek-VL2、DeepSeek-V3模型,并在2025年1月15日正式上线DeepSeek官方APP。因DeepSeek拥有自然语言处理、机器学习与深度学习、大数据分析等核心技术优势,在不同领域的表现均较为出色,通过智能助手和聊天机器人实现快速的自然语言交互,体验感十分好,在国内只要提起AI,多数人都会想到DeepSeek,而且多数科技公司开发的软件,例如腾讯元宝等,都接入了DeepSeek大模型。
二、当前人工智能大模型的优势
1、理解自然语言
人工智能大模型(下称“大模型”)的本质就是计算机语言,如何让计算机理解人类自然语言,在此前的发展过程中是一大难题。随着计算机技术不断发展,算力不断提高,当前的大模型基本上都可以理解自然语言,分析输入的指令,了解用户需求,经过分析具体需求后反馈答案,整个过程就像跟大模型进行日常对话,基本没有难度就可以利用大模型服务于法律事务。
2、高效整合信息
大模型接收指令后,可以通过实时搜索网络上的信息,在很短的时间内根据具体需求整合相关信息,极大缩短此前用户需要自行通过搜索引擎或相关公示系统(如天眼查、企查查)的查询时间,通常情况下,只要在网络上可以查找到的信息,无论用户的需求量有多大,大模型都可以在短短几分钟内完成信息的收集,并且按照一般人的逻辑顺序整合信息,并向用户反馈,用户可直观理解和了解相关信息。
3、推理能力强大
大模型还可以协助用户对法律问题进行推理。如发生劳动纠纷,只需要简单输入基本案情,并提出如何处理的问题,大模型可以根据案情,结合现行法律法规,为用户分析存在何种法律问题,如何在现行法律框架内,合法合理的维护自己的合法权益。特别是在用户不了解具体法律规定时,大模型都可以全方位为用户推理出所有合法解决纠纷的途径。
三、大模型的劣势
1、存在泄密风险
用户所输入的全部内容,都需要上传到大模型的服务器内进行分析、推理,最终向用户反馈信息;此外,大模型的建立,除了会连接网络上已有的信息,还需要“投喂”大量的信息,大模型才能成长、进化,最终才能更好的理解用户的需求并输出最接近用户所想要的结果。但如果输入的内容包含隐私、秘密等涉密信息,则会面临着涉密信息往大模型中“投喂”的风险,如此一来,就会存在日后用户可以利用大模型“开盒”他人的个人信息、被竞争对手“盗取”商业秘密的可能。
2、胡编乱造信息
如上所述,大模型都需要“投喂”大量的信息,但如果信息来源存在错误,如虚假法律条文、反常识等信息(《反遗弃法》、太阳从西边升起等),则大模型可能会对用户提出的问题进行分析、推理后,使用错误的信息向用户反馈,最终导致用户误以为国家颁布了新的法律、长久以来所认为的常识已被推翻。
四、使用大模型的注意点
从上面的分析可以知道,大模型确实可以为我们处理法律事务时提供高效的协助,但亦存在不同的劣势,导致可能发生法律风险。我们可以采取不同的方式,减少甚至避免相关法律风险的发生。
1、删除涉密信息
为了避免泄密风险,我们可以在往大模型输入信息前,先行删除涉密信息。例如:
(1)提出文本类问题的,可以将个人姓名、公司名称改为“李某”“A公司”等,身份证号码、统一社会信用代码等可以直接锁定某一主体的信息则不要往大模型中输入。
当然,如果文字数量比较少,我们可以直接在大模型对话框中直接输入问题,隐去涉密信息即可。但如果文字数量较多,如数百字甚至上千字,或者法律关系复杂的,我们可以先编辑好提问内容,利用相关办公软件的替换功能,确保涉密信息已经完全脱敏,再往大模型中输入。
(2)分析图片的,一般需要先对图片中涉密内容进行打码、涂黑。但进行上述操作时,如果图片数量较多,则可能需要先花费大量的时间进行脱敏,不可避免的可能会因疏忽大意而没有完全脱敏,最后导致秘密泄漏,利用大模型高效协助工作的需求也无法达到。
2、本地部署大模型
减少泄密风险,除了可以通过自行删除涉密信息外,还可以通过在本地部署大模型,所有输入的内容,无论是文字还是图片,进行分析时都限制在本地进行分析、推理,如此一来就无须先行自己删除涉密信息,大幅度减少前期工作量。
当然,要在本地部署大模型,需要投入资金购买硬件设备和大模型软件,是否有部署的必要,还需要看日常的法律工作量。另外,由于大模型在本地部署,分析、推理所依靠的算力,就要看本地的硬件设备的算力,如果使用人数多,则需要考虑购买大型服务器,以提供充足的算力;大模型部署在本地,如果没有实时更新,则可能导致分析、推理能力的落后。
3、建立知识库
为了避免虚假信息的不利影响,我们可以根据自身的需求,建立自己的知识库,向大模型“投喂”知识,要求大模型利用知识库的内容,对输入的内容进行分析、推理。
我们需要根据行业类型、地区、日常需求等,整理相关的内容。如涉及劳动争议的,我们可以整理与劳动争议相关的法律法规,结合地区整理本地的、从县、市到省各级法院近年来关于劳动争议的法院判例。如公司的经营专注于房地产、建设工程行业的,我们可以整理关于土地、建设工程、物业管理与租赁、商品房买卖等的相关法律法规,以及国家、省、地方和行业的各类计价规范、国家标准、推荐性标准、行业标准等文件。上述文件,建议通过官方渠道下载,确保真实性、准确性。
接下来就可以建立自己的知识库。目前不同的科技公司均开发了知识库软件,如ima,我们就可以下载相关的软件,将我们整理好的知识,在软件中建立不同的小知识库并上传,便于使用大模型分析时先行调用我们所整理的知识,减少大模型胡编乱造的风险。
4、建立工作流
针对法律工作,我们肯定已经形成了自己的工作流程,不管是个人习惯还是公司规定。这套工作流程,亦可以让大模型跑一遍,这样输出的结果会更匹配自己的需求。
经过笔者的调研,较多用户使用“扣子空间”建立自己的工作流。虽然“扣子空间”存在一定的学习成本,但是使用门槛并不高,网络上亦有不同的用户录制了使用教学视频,用户可以通过视频学习如何建立自己的工作流。
此外,“扣子空间”允许用户调用不同的大模型,对用户提出的问题进行分析、推理,因此用户可以对比、综合不同大模型的结果,得到更为完善、准确的结果。
最后,单一的语言类大模型,输出的结果可能也更为单一,如用户希望输入问题和材料,让大模型根据输入的内容为自己做一份关于涉诉案件的PPT,但需要先让A大模型进行分析后输出案件大纲,再让B大模型根据大纲输出具体分析内容,最后让C大模型根据大纲和内容制作PPT。但在建立工作流后,我们就可以通过输入一次内容,直接获得自己所需要的PPT,真正的提高了工作效率。
五、结语
大模型的出现,确实可以减少用户在网上自行查找信息、自行分析问题、自行整合答案的时间,高效完成自己的工作。但是针对法律事务,大模型又存在不同的劣势。因此,要让大模型赋能法律事务,需要注意相关的风险,避免盲目追求高效导致产生更大的法律问题。
(作者交流电话:18666500490)