1.甘肃政法大学司法警察学院,兰州; 2.中南财经政法大学刑事司法学院,武汉
法庭科学又称司法科学,运用自然科学和社会科学的原理和方法,结合医学、自然科学、刑事技术学等学科的原理和技术,研究查明事件法律性质、发现犯罪、揭露犯罪、证实犯罪及预防犯罪的科学技术手段与方法的一门综合性应用学科。法庭科学是交叉学科中的典型,很好地阐释了多学科、多领域的交叉和融合。就是因为这个特点,法庭科学对人工智能技术的研究和探索才会更加的深刻和广泛。在应用人工智能的同时,又发展了人工智能技术,促进了自然科学和社会科学的发展,这种双向的发展符合国家提出的新文科和新工科的理念,培养了全面发展的高素质人才。但是与此同时,法庭科学又成为了多个学科利用人工智能技术产生一系列道德问题的集合体。人工智能技术是辅助手段,但是其产生的数据隐私、算法歧视、法官失职失业等问题与现代法治改革和社会治理对人权的保护、市场竞争规则的维持,以及个人的职业发展趋势产生了巨大的冲突。所以,在发展人工智能技术的同时,一定要重视这些道德问题的考量,特别是对人工智能技术法律和规则适用性的考量。
自然语言处理(Natural Language Processing,简称NLP)技术,是人工智能领域的一个重要的研究方向,它融合了计算科学、语言学、数学,实现了人和计算机之间用自然语言进行有效通信。
第一,法律智能助手和虚拟助理。在日常的法律工作中,利用NLP技术可以对数据库的案件进行精准的查找,对相关的法条进行解读,还可以进行一些合同的起草。NLP技术可以从海量的数据库中自动进行准确的查找并且可以快速地获得建议和参考。第二,自动化合规与风险评估。NLP技术可以快速地帮助企业对相关的规定和合同条款进行自动化合规审查,并形成详细的标注和合规性报告。并且能够自动识别进行风险评估,从各个方面进行自动化的监测,可以为律师消除一些微小的隐患,为企业规避风险,从而更加安全有效地保护企业的合法权益,为司法工作人员消除隐患和避免风险。第三,法律的语音识别和转录。这个在法律的日常实践中很普遍,就是利用NLP技术,从数据库收集语音模型,对相关的语音进行识别。例如,律师可以将庭审、会议等活动进行语音识别和文字的转录,方便公检法部门人员后续的查阅和分析,缓解了他们的压力并提高了他们的工作效率。
NLP在法律实践中的应用场景有四类。第一,实现法律文本的自动分类,如合同类型和案件类型等。通过朴素贝叶斯算法或支持向量机这种二分类算法,假设文本中的每个文字都是独立的、不相关的,在法律领域进行文本的预处理,去除一些停用词(这些词在应用中对于文本的分析和处理没有实际意义和贡献,通常是语境中的功能词,关于停用词的方面,在NLP技术中专门设置了一个停用词表)。然后通过计算每个单词在每个类别中出现的概率,使用贝叶斯定理计算出文本属于哪个类别的概率,进而完成文本的自动分类。第二,NLP在实践中还应用于文本摘要的生成,可以对长文本信息进行筛选,提炼出主要信息,如自动生成合同摘要、案件摘要等。利用关键词选择算法或者TextRank的算法对文本关键词的重要性进行权重分析,计算出每个单词在文本中出现的概率,通过这种方式选择文本摘要。第三,NLP应用于合同自动生成,通过规则引擎和模板系统,再利用统计模型和深度学习模型,自动生成合同。规则引擎的工作原理就是通过定义合同模板,包括合同标题、条款等定义规则,根据用户输入的需求选择合适的模板和条款,生成合同文本,根据规则填充模板来完成合同的自动生成。第四,NLP应用于问答系统的建立,常见的法律问答系统包括Rule-Based系统、Retrieval-Based系统、Hybrid系统。其工作原理大致都是根据法律规定和常识定义一系列的规则,用NLP将用户问题转换,将检索到的法律文本通过NLP进行内部表示,最后根据匹配生成答案。
图像识别技术(Image Recognition Technology,简称IRT),也是人工智能领域的一个重要的研究方向。IRT指对图像进行对象识别,以识别各种不同模式的目标和对象的技术。IRT和侦查过程中的同一认定类似,在法律领域的应用就是通过构建算法模型,与人像或者搜集的证据线索进行比对,从而进行确定证据、缉捕犯罪嫌疑人等活动。图像识别技术在法律领域的应用可以分为对人的识别和对物的识别。
在法律领域,人工智能技术对人的图像识别技术主要是从视频监控的分析、图片的辨认、尸体的辨认和身份的验证等方面进行应用的。对人的识别就是对人的生物信息和人的社会信息进行一一对应。通过对监控录像的自动分析,可以比对录像中出现的人的面部特征、行为模式等,将犯罪嫌疑人和失踪人口与数据库中搜集的信息进行比对分析,帮助侦查人员进行自动识别,从而节约侦查资源。或者将收集到的嫌疑人、失踪人口、尸体、预警系统报警(可能会进行违法犯罪活动的人员)的个人特征进行画像模拟以及收集到的照片进行特征分析,从而确定这些线索所代表的人员身份和社会信息,让司法活动能够顺利地进行下去。这种对人的图像识别技术,主要还是通过现在的监控分析对已经采集到的人员的相关数据信息进行碰撞比对,并且此项技术的准确度已相当高,能帮助侦查人员高效准确地完成相应的识别、查找、缉捕等工作。
利用人工智能的图像识别技术在对物的识别方面,主要是从犯罪现场痕迹的分析、法医鉴定、法庭证据的呈现、文档和图像的修复和增强等方面进行应用。在犯罪现场,图像识别技术可以帮助侦查、勘查、鉴定人员分析和对比照片或视频中的物证,如指纹、足迹、车辆等,人工智能技术可以快速地进行识别并在数据库中进行自动匹配。在法医鉴定中,人工智能技术可以帮助分析尸检图片,识别尸体上的伤痕、疾病标志、胃容物或其他线索,并且还可以通过对DNA的提取进行DNA分析。针对有枪支弹药出现的现场,可进行弹道痕迹的还原和鉴别。在违法违规的交通现场,可以进行车辆牌照和汽车特征的识别。在法庭证据出示中,人工智能技术可以通过对证据的可视化处理,将生成的图像和动画呈现给法官和陪审团,让他们能更好地理解复杂的证据,例如对事件的还原和对案犯现场的重建,以及对犯罪现场进行动态模拟等。在进行证据审查和证据收集的过程中,利用IRT可以很好地将模糊的照片进行增强,将缺失或者损毁的文档进行修复,通过这些手段可以提高证据的可读性,以便能更好地还原事实。
智能数据分析技术(Intelligent Data Analysis)是指运用统计学、模式识别、机器学习、数据抽象等数据分析工具从数据中发现知识的分析方法。具体分为两类:一是数据抽象(Date Abstraction);二是数据挖掘(Date Mining)。具体应用如下。
数据挖掘分析就是利用数据的关联性。智能数据分析技术可以对历史案件进行数据分析,从历史案件中更好地了解案件的趋势和特点。例如,可以分析不同类型的案件在不同的地区和不同的时代背景下发生的概率,从而帮助法官更好地了解案件的背景和特点;对发生的案件数据进行挖掘和分析,从而发现案件中隐藏的关联关系和规律,能更好地了解案件背景和特点,进行预警和提前预防,从而做出更加符合时代背景的精准判决。这种对案件数据的挖掘和分析,不仅是针对个别案件之间的关联性从而帮助法官,更是对案件的分析中得出的一些经验,然后将这些经验理论化,让这些理论化的经验知识进行传递,从而更好地帮助公检法的各个部门,特别是在鉴定、勘查、侦查的过程中运用。
智能数据分析技术在证据鉴定中,可以很好地发现证据的真实性和可靠性。通过对大量案件相关信息的分析来印证证据的有效性。例如,通过证人证言和证据的相关性的分析,可以判断证人证言的真实性和证据的可靠性。证据的鉴定就是对证据进行鉴真,而智能数据分析就是将案件的相关数据信息进行比对和碰撞分析,从而筛选出有价值的信息,尽可能地还原案件,使证据之间能够相互印证,使所有证据符合逻辑、形成证据链,进而帮助法官判断证据的真实性和可靠性。智能数据分析技术的使用,就是在证据鉴定方面为了能够实现公平正义,为人民服务,从而保证法律的权威而做出的改善和发展。
智能数据分析技术的判决预测就是对过去类似案件的借鉴。智能数据技术可以通过对案件数据的分析和比对,来预测案件的判决结果。通过对过去大量案件的分类分析和比对,可以对案件中的线索和证据信息进行数据比对分析,也可以预测到一些特殊案件的相关线索,从而给侦查人员提供方向,帮助法官做出更加准确的判决。当今社会最有价值的信息就是数据,公检法系统的工作就是搜集大量相关案件数据,从中筛选出最有价值的数据线索,从而推进工作。智能数据分析技术就是自动化分析和对比数据,从而节约了公检法部门的人力和财力成本,更加准确和高效地完成工作,并且可以通过对大量的案件信息进行分析比对,进行不同案件在不同时代背景下随机变量的收集,以便更好地根据当前时代背景进行预测和分析。
人工智能技术的另一大优势在于它能将部分人的主观思想进行数据的可视化分析,以实现主观客观化。智能数据分析技术的数据可视化在法律领域就是这样使用的。将案件数据可视化,对现场的线索和证据进行标注,例如,可以将这些数据绘制成图表、地图、痕迹、视频等,更好地帮助法官了解案件的背景和特点。将犯罪现场的数据进行可视化处理,结合AR和VR技术对犯罪现场进行重建和动态模拟,以便侦查人员可以实时进行分析推理,发现更多重要的线索,同时能够更快地将现场解除封控,使人民群众消除恐慌心理,并且能使现场情况更加生动地呈现在侦查人员面前,稳定社会秩序,方便司法工作,提高工作效率。
数据是这个时代最具价值的资源。当你掌握了大量的数据,那就会站在这个时代的风口上。但是凡事都是双面性的,在法律领域也同样如此,人工智能技术带给法庭科学的发展和便利的同时,也引发了一系列的道德问题。其中的核心问题就是数据隐私。以下是当前社会在数据方面所面临的几个重要的问题。
人工智能技术在法庭科学的运用基础就是大量数据的收集和对比分析。但是由于违法违规的隐匿性,以及大量的违法违规事件都需从结果倒推原因,使得司法工作者在追求百分之百还原事件的时候就会涉及对大量相关数据的收集,同时收集了部分无关数据,从而无意中泄露了公众的个人信息,侵犯了个人的隐私权。如果在数据的收集、存储、传输和处理的过程中,对数据不能进行有效的保护,那么就会产生数据泄露的问题。例如,对我国所有人员DNA的收集,如果在这个过程中,没有采取有效的安全措施保护这些数据,那么就会导致我国人员的基因信息外泄,不法分子就会通过对我国基因信息的研究,生产出只针对中国公民的病毒,这样所导致的后果不可想象。因此,不论在哪个领域,在使用这些数据的同时,都要对数据的各个阶段进行安全有效的保护。特别是在法律领域,法庭科学中对于DNA、血迹、指纹、车辆、甚至案件信息、个人信息的收集都是非常的全面,并且随着智能技术的发展,也会更加的详细,这些信息有助于司法工作者搜集证据、查明案情、抓获犯罪嫌疑人,但同时数据的泄露也会助长犯罪行为,引发社会影响力更大的犯罪。
人工智能技术的使用只是一种辅助性的技术手段,但是对于收集、存储、传输、处理的数据进行滥用,就会使得这种合法的人工智能技术成为一种违法犯罪和非法牟利的手段。数据滥用可以分为两种情况,第一种是在收集和分析数据的过程中,没有得到当事人的充分授权,如果不加以限制,这种行为就和传统意义上的刑讯逼供没有区别。另一种是对这些数据进行篡改和伪造。当前社会已出现诸多数据滥用的问题。例如,在购房时填写的个人信息就会被交易给相关的房产和装修的第三方公司,或者被不法分子用于违法犯罪的活动,甚至还会出现因数据滥用而做出不公正的判决。这些在司法实践活动中产生的问题都是由于数据的滥用才使得公民的权益受到不法侵犯。
对于数据隐私问题,最后的底线就是数据保护。现在的犯罪形式发生着重大的变化,已经逐渐从物理空间转移到虚拟空间,并且具有隐匿性更强、手段更多的特点。犯罪分子利用法律制度的滞后性,进行了大量的违法犯罪活动。人工智能的普遍应用催生了大量的第三方公司,这些公司的目的就是为了盈利,通过大量收集数据以产生巨额利润。但是在收集数据的同时,并没有很好地对数据进行妥善保护,甚至利用这些数据进行二次盈利,将个人信息完全暴露在整个虚拟空间中。虽然在法律层面已经开始注意到对数据的保护,但是对于数据保护的规定仍然存在滞后性,并且对于人工智能模糊性的判断,也产生了在法庭科学领域对于技术使用的不规范和对数据保护的不重视问题。因此,对于数据的保护也是数据隐私的重点关注问题。
算法歧视问题就是指算法在处理数据时,对某些群体或个体的偏见或歧视,从而导致不公正的结果。编程的技术人员在构建算法模型时,往往会有意无意的加入自己主观的一些偏见。这主要体现在以下两个方面:一是输入数据的样本比例不均;二是输入数据存在人类社会的固有歧视。算法歧视问题在以下三个阶段体现。
算法歧视的第一阶段就是数据本身的偏见。数据是算法产生的基础,如果从数据开始就存在偏见,那么算法歧视问题一定存在。从数据的收集开始,如果数据本身就是存在偏见,那么数据就一定反映的是偏见性的问题。例如,带有一定偏见对某个特定的族群或者地区的数据采集不足或者不平衡,那么一定会对这个群体或者个体产生偏见。站在社会治理的角度,那么就一定会产生不贴近社会主流和群众最为关注的问题,所生成的制度和政策就一定是形式化的。对数据的分析如果不加以监督并在特定的背景下进行,产生的结论一定是带有偏见的,这种偏见可能就只会满足少数人的需要,而不是社会广大群众的主流价值观。
算法歧视的第二阶段就是算法产生时的偏见。基于数据进行算法设计时,如果设计者的价值观或者其本身的偏见影响了算法的设计,就会导致设计出的算法存在偏见。算法本身的偏见还是来自设计者的主流价值观。例如,设计者对某些人的社会身份、性别、种族、行为模式等存在偏见,那么即使数据抛弃了这种偏见,也会导致算法本身仍存在偏见和歧视,并且这种偏见是很难进行监督和修改的。一旦算法形成,那么基于大量的数据分析就会自动产生更多的偏见,会严重影响社会主流观的发展。针对某一特定算法设计的对象就会产生不可挽回的后果。
算法歧视的第三阶段就是决策过程中的偏见。决策过程就和司法过程中的法官类似,众所周知,一次犯罪污染的是一条河流,一次错误的裁决污染的是整个水源,可见决策过程的重要性。但是,在使用算法进行决策的过程中,如果算法对某些群体或者个体存在偏见,那么就一定会导致不公平的决策结果。所有的法律条文和规定的目的在于实现公平正义,但如果决策过程中有偏见,就一定违背了这一原则,甚至可能导致其对立面的产生,甚至毁灭这一原则。因此,在处理算法歧视问题时,不仅要保证基础和设计的公平性,更要保证决策结果的公正性。
人工智能在法庭科学中的应用,可能会带来法官职业失业的问题。随着人工智能技术的不断迭代升级,部分法律工作可能会被自动化和智能化所取代,从而减少法官的工作量,甚至替代法官的工作,主要存在以下问题。
自动化判决技术现在已经逐步在推广,在一些简单的民事诉讼活动中,人工智能技术已经可以自动化的形成判决结果,从而减少法官的工作量。人工智能也在进行深度学习,逐渐替代法官工作。自动化判决技术的产生,主要目的就是缓解法官的工作压力。但是因为人工智能技术的迅速发展与法律规定的滞后性,导致某些案件出现不公正结果,使得自动化判决逐渐获得了广大人民群众的接受和信任。法官们的工作压力,也促使自动化判决的应用,从传统完全依赖人工的诉讼活动逐步转变为机器的工作。这样就会导致法官的职业素质降低,更机械地使用法律条文。机器通过不断的深度学习,对大量数据信息的高效处理,逐渐替代了法官的判决,而法官长期对自动化判决的依赖和参考,也使其对法律条文的使用变得机械化。自动化判决已成为人工智能技术发展带给法官的思考问题。
随着人工智能技术的发展,智能辅助技术也逐渐开始进入一些复杂的案件。人工智能技术在一些复杂的案件中,为法官等法律工作者提供数据分析和决策支持。虽然在复杂案件中,人工智能技术只是辅助,做不了自动化判决,但是随着人工智能的深度学习和案件素材的大量积累,以及对法官判决的深度学习,人工智能技术会慢慢从智能辅助,进一步发展为自动化判决,从而彻底代替法官的工作。并且,对于案件参与人来说可能会更加偏向于人工智能技术,而对法官失去信心,从而导致法官的彻底失业,让整个司法活动机械化运行和发展。
智能机器人是当前人工智能领域的一大重要研究方向,对传统行业产生了巨大的冲击。人工智能的便捷性已经优化充斥着整个人类的生活,技术的迭代升级产生了智能机器人,它们不仅能在恶劣环境中代替人们工作,更能高效、精准地解决人类所面临的问题。在法律层面上,智能机器人已经可以代替法官对一些简单案件进行庭审和判决。智能机器人还通过对人类的模仿学习,对人类情绪的感知和预测,进而更好地在各个方面为人类服务,甚至在一些行业还出现了智能机器人代替人工作的现象。这些问题犹如一把双刃剑,在保护和方便人们的同时,又将遏制人类的进步和发展,使得人类更加像机器人一样进行机械的生活,而智能机器人则更加像人一样进行生活和工作。这就是司法行业乃至整个法律行业需要思考的问题和研究的方向。
人工智能在法庭科学中的应用,引发了数据隐私问题,根据数据隐私的道德考量,可以采取以下几个策略进行应对。
在数据的收集、存储、传输和处理过程中,应广泛应用加密技术。数据在收集的过程中,不能把原始的分类和收集要求进行随意的公开和泄露,防止不法分子根据这些要求进行反算法模型的构建,从而间接泄露和滥用数据;在存储和传输的过程中,应对数据进行加密处理,防止在未经授权的情况下获取数据和使用数据。总之,在数据处理基础上,必须加强对数据使用高等级的加密技术。
数据权限对于隐私保护来说也是一种重要的手段。在数据访问和使用的过程中,应采用权限控制的技术,限制数据的访问和使用权限,以保证数据只有在授权的情况下被使用,从而防止数据的泄露和滥用,保护个人隐私。权限控制不仅要针对在访问和使用的阶段,还应该在数据收集和销毁的阶段进行控制,防止不法分子的篡改和滥用。
数据的匿名化就是指在对大量数据进行分析和处理的过程中,将其中的个人隐私信息进行脱敏处理,也就是采用数据的匿名化技术。例如,在公布案件信息时,对案件中所涉及的姓名和个人信息进行化名或代号性的替换,进而确保公开信息的匿名性和隐私性。同样,数据的匿名化也应设置专门的代号进行隐匿和保护。
数据审计类似于企业中的财务审计。对财务的审计就是对一个公司或者企业的资金流、财务状况和企业的发展进行审计。而数据审计就是在数据访问和使用的过程中,即在数据的流动中,留存数据的访问和使用记录,以便对数据的访问和使用情况进行监控和审计,这样不仅可以进行人为的筛选和监督,还能有效解决数据的隐私问题。
在人工智能的高速发展背景下,尽管法条规定具有一定的滞后性,但是我国关于数据保护法规的制定还是非常的及时和全面的。在数据隐私保护方面,要进行相应法律法规和监督机制的体系化建设,不仅要针对某一数据安全的问题进行法律法规的建设,更要建立一套完善的机制,例如借鉴宪法中的资源分配原则以及国家国情和政权规定,制定一系列的部门法。在数据保护法规方面,也应该先对数据基础的问题进行分配和规定,然后形成一系列针对各个部门的数据保护法规,这样能更加有效地保护数据隐私,并带有一定的预测性保护。
在应对数据隐私保护问题时,不仅要对数据保护制定相应的法规,更要从社会的公序良俗出发,建立相应的数据伦理标准和道德规范。在设定数据伦理标准时,必须明确数据使用的规范、处理数据的道德标准及相应的限制。遵循国法、天理、人情,从人类传承的公序良俗出发,以更好地保障数据隐私和个人权益。
人工智能在法庭科学中的应用,涉及大量数据的分析和决策。因此,产生的算法歧视应该从以下几方面进行纠正和解决。
数据的平衡存在于数据的收集和处理过程中,数据也是时刻发生着变化,并且随着时间段的拉长,数据的处理也在不断地变化,这样就会导致算法的偏见问题。所以在这个阶段要保证数据的平衡性。为了避免数据集对某一个群体或个体的偏见,可以采用平衡数据集的方法,如过采样、欠采样、数据增强等技术方法,来达到数据平衡,监测和纠正算法歧视问题。
算法审查和数据审查的方法类似,在算法的设计和使用过程中,对算法进行审查记录和监测统计,以此来保证算法本身不存在偏见,并在此过程中消除算法设计人员的主观偏见。例如,对算法的训练模拟数据进行测试,评估算法的准确性和公正性,从而进行全面细致的算法审查。
人工智能的参与通常会导致一些庭审活动中的证据,当事人和律师由于技术上的欠缺无法进行质证。因此,在使用算法进行决策的过程中,需要将决策过程和依据的标准对当事人或者律师进行公布。在这个过程中,可以对算法决策的过程进行一些可解释的分析或者建立决策解释模型,让参与人在不懂技术原理的情况下,了解决策过程和依据标准,确保人工智能算法决策的透明化和公正性。
在算法审查的过程中,在对算法进行监测时一旦发现算法存在歧视问题,要采取相应的算法纠正措施,对算法进行修改完善或者重新建立和规制。例如,可以对算法进行重新训练,详细记录,发现相应的偏见所在进而改之,调整算法参数,进行实验性训练等方法,以消除算法的歧视问题。
为了消除算法的歧视问题,在算法的建立和应用及后期监督的过程中,需要建立一个多元化的团队。这个团队的建设不能仅限于懂技术的人员,更要有不懂技术,但拥有丰富的一线工作经验及懂政策、懂法律法规的人员,还要有社会公众的参与,包括但不限于不同的背景、性别、年龄、种族的人员,以确保算法设计和应用的公正性和包容性。并且在多元化团队的建立过程中,必须对团队成员进行严格的筛选,以防止在各个阶段产生不同程度的数据安全问题。
所有的技术发展和应用,以及实验性的决策,都要接受法律监督。因此,在算法的歧视问题上,需要建立相应的法律法规和监督机制,利用国家赋予的强制性权力对算法进行规制。要平衡国家管控的松紧度问题。过度放任可能导致类似于算法歧视这种问题的产生,而过度严格则可能会导致法律法规僵硬、机械化的执行。所以要使用法律手段来对算法进行监督。
针对法官职业失业问题,要解决法官不失业,就得先让法官了解人工智能技术。可以开设相关的培训课程,让法官掌握人工智能技术的知识和应用技能。例如,开设一些人工智能基础、自然语言处理、数据分析和机器学习等课程,全面地对人工智能进行了解和熟悉。同时,法官也应提升自身的法律技能,在人工智能时代能更好地适应新的技术和新的工作模式。不再是机械的执法和司法,而是有温度的进行司法活动,让人民群众实实在在地感受到公平正义,相信法官,相信法律工作者,重拾对法律的威严和信赖。
人工智能技术的发展理论和技术的创新都是从各个学科的基础理论和方法所发展的,所以法官需要进行跨学科的培训和学习。例如,与人工智能密切相关的数据科学、计算机科学、统计学、数理分析、人工智能等学科,有助于法官扩充自己的知识库,掌握相关的知识和技能。此外,为了让法官更好地掌握还应开设一些实践性的课程,将理论知识运用到实践中,再从实践中学习完善理论知识体系。建立一个知识共享平台,不仅有助于法官对于知识的分享和学习,更能促进各学科知识的共享和交流,从而让法官不再失业,而是更好地融入人工智能时代,更好地利用人工智能技术,提高职业素质和工作效率,为人民服务,为法律服务。
人工智能在法庭科学中的应用就是多学科进行融合的一个素材,在多学科综合融入的过程中就会产生一系列的问题,而把人工智能作为技术手段运用在法庭科学中,必然会产生一些道德层面的问题。首先,目前该问题的局限性就在于技术发展的速度很难和法律法规的发展速度进行平衡;其次就是对于法庭科学中每项技术的使用调查研究较少,很多技术对于其核心原理并不会公开,所以就会导致算法黑箱的问题;最后就是关于道德伦理的考量没有标准,每个人的标准都不一样,很难进行规制。但是存在局限性就会有更大发展创新的空间,所以对于人工智能在法庭科学使用的道德考量重心,还是应该放在其局限性上,遵循国法、天理、人情。遵循公序良俗,让人工智能技术在法庭科学领域能有更大的发展和更好的创新。