人类与人工智能的“战争” – 新京报

59岁的律师黄桂根决定向人工智能“宣战”。他提供的证据显示,参考信息是百度AI生成的。黄桂根被指控敲诈法官、贿赂CEO、伪造印章、非法吸收公款等罪名……黄桂根注意到,当你在百度上搜索他的名字时,会自动关联到“黄桂根律师是否有犯罪行为?”等负面信息。 “为什么不推荐黄桂根律师?”他认为百度已经形成了一个关于该公司的“传播负面信息的闭环”。黄桂根告诉新京报记者,百度AI产生的虚假信息传播到其所代理的客户及其家人身上,造成了很大的麻烦和损失。 2025年9月,其对运营百度AI的百度提起侵犯荣誉权诉讼。黄贵庚认为,被认为对人类有益的机器其开发商和经营者负有不可推卸的责任。这并不是人工智能第一次与人类开战。多位受访者告诉新京报记者,从2025年开始,他们也将面临机器“攻击”。在各大搜索平台上,人工智能为用户生成负面信息,为判决、定罪等负面事件“保驾护航”。人类与机器之间的法律之争让包括法官在内的各界人士忧心忡忡,纷纷表示:“我们如何决定?”一位经验丰富的律师提出,人类应该“容忍”机器错误,以保护创新。一些学术专家不同意这种说法,认为开发机器的公司应该对保护用户权益负有责任。AI会“伤害”、“挑战”还是“理解”?这个探索模糊边界的问题还没有解决。“战争”赌注人类与机器的对话仍在继续。 “他者”不是人类。 2025年5月21日,黄贵庚收到案件客户端发来的四张截图。截图内容为关键词“黄桂庚律师”生成的百度AI搜索内容。百度AI对全网结果进行汇总,显示“黄桂庚律师”涉嫌伪造公司印章案、质保期内检查案、恐吓法官案等。内容最后有一个“特别说明”,上面写着:“请注意,搜索结果不会显示他作为成功辩护律师的案件。列出的所有案件都是他作为案件当事人或代理的负面事件。” 2025年5月,黄桂庚律师收到委托人发来的四张截图。截图为百度AI使用关键词“黄贵兴律师”的搜索结果。看完受访者提供的截图后,黄贵庚首先我感到困惑,然后感到愤怒。客户的指责非常直接。 “如果你为你的案子请了律师,但律师本人不愿意,你怎么相信?”黄桂根极力反对。 “纯属诽谤,一切都是毫无根据的,或者是有人在‘捉弄’我。客户对这些解释并不满意,只是含糊其辞地表示要再核实一下。黄桂庚起初怀疑这是同行之间的恶性竞争,有人故意在网上抹黑自己。他回忆起当时和同事们进行的一场案件竞赛。当天,黄桂根第一次向同事举报。当地检察院提起诉讼,指控他“捏造网上信息,恶意诽谤同事。”黄桂根花了几天时间才找到自己的真正“搭档”,多次切换不同设备、更换搜索关键词后,发现“百度AI汇总搜索结果”字样。“全网”始终出现在顶部,虽然每次生成的内容略有不同。黄桂庚意识到这些信息不是人写的,而是人工智能主动生成的。人工智能还标注来源为“此前所有事件均因司法机关公告”。他表示,此前人工智能声称的通知包括人民法院报、福建法制网、最高人民检察院和北京市司法局的行政处罚决定书。我发现黄桂根发现,所有的信息都被“替换”了,“敲诈法官”和“伪造印章”的情节都来自新闻报道,但人工智能更改了“黄律师”和“黄法律顾问”的匿名名称,并将其与他的律师事务所联系在一起,而“假担保”的内容来自最高人民检察院领导的案件。​​更换了客户的“黄五平”写着他的名字。 《定罪与取消资格》是一位匿名黄姓律师的量刑信息的“嫁接”。如果他们都是律师或者同姓黄,人工智能可能会滥用这些信息,让大量用户获取相关内容。 “按照这种逻辑,机器可以不加区别地造成伤害,任何人都可以成为人工智能的受害者。”黄仁勋关于人工智能“客观、理性、中立”的形象已经崩溃。黄桂根律师随后撤诉,转而对百度提起民事诉讼,索赔各类损失109万元,指控“百度AI恶意生成虚假负面信息,严重损害其声誉,进而玷污了律师名誉”。任何人都可能成为人工智能的受害者。击败机器背后的大公司并不容易。黄桂庚保存了截图和录屏,前往注释他向公共办公室搜索百度人工智能搜索结果,生成路线固定证据,并为他的律师准备了起诉书。他还为“百度AI首例虚构事实侵权事件”准备了详细的解释。 2025年11月,北京市海淀区人民法院受理了黄桂根诉百度公司提起的精神权利纠纷诉讼。受访者供图 从某种程度上来说,这符合黄桂根的一贯做法。从技术上来说,你是一名做了两年律师的“新律师”。此前,他拥有近20年的法律记者经验。他“严肃,憎恶,更严肃”。黄桂根认为,他一直很小心地维护自己的个人声誉,因此网上关于他的信息很少,更不用说负面信息了。 “但现在这一切都是因为人工智能。所以它被毁了!” 2025年11月,北京市海淀区人民法院受理提起了针对主动生成虚假信息的人工智能的荣誉侵权诉讼。事实上,黄桂根并不是人类与机器战争的唯一“受害者”。 “肆意破坏”正在发生。多位受访者告诉新京报记者,从2025年开始,人们在各个平台搜索有关自己、身边人、名人的信息时,提供的摘要中会频繁出现风险信息。它涉及将人们与有争议的事件联系起来,并凭空创造负面风险情景,例如惩罚、定罪和判刑。 2025年底,37岁的吉呈祥在百度搜索自己的名字,发现自己也被人工智能“诽谤”。这条信息也是从另一个同名的人那里“嫁接”来的。 “我刚入职主编,AI就告诉我,我涉嫌严重违纪违法,正在接受纪律审查”2025年11月底,在治安档案封存风波中,有网友在搜索治安管理法审议积极推动者、全国人大代表朱正福的信息时,人工智能证明朱正福的儿​​子有吸毒史。随后,朱政富告诉新京报记者,北京云嘉律师事务所高级合伙人顾敬言律师代理了一起人工智能侵犯用户名誉权的案件。也就是说,客户使用百度搜索引擎搜索客户姓名和现状的体验。据说他与范吉根有着惊人的相似之处。生成内容《十年牢狱,光明未来》,在生成信息前,标题为《十年牢狱,光明未来》,并在显着位置列出了《全网54条真实经历》,但经核实,该内容为迪斯科Vered称,有关10年徒刑的信息是从nnews的一篇报道中的同姓人士处获得的。顾金燕律师代理的“名誉侵权诉讼”最早出现在北京的一家网络法庭。在第一阶段达成协议并不困难。双方都承认机器犯了错误并造成了问题。该平台的一名律师告诉法庭,“我们也对造成这种误解深表歉意”,并声称该平台搜索引擎的人工智能功能内容存在错误。大模型机在整合信息内容时,不适当地将原告与另一份量刑通知书关联起来。 “但没有人应该为人工智能所犯的错误负责。”百度律师认为,人工智能的“攻击”行为意味着它会像人类一样犯错误,而且错误信息并不是机器自动生成的。正如原告所声称的那样,中国的禁令。百度律师告诉新京报记者,这个错误是人工智能平台无法预见的,因为它是“不可控且不可避免的”。 :“平台卖了一把‘刀’,却不知道AI会用它杀人,为什么要为‘卖刀’的行为负责?”这个意见遭到了顾谨言的反驳。 “平台并不是被动‘卖’无差异化的工具。平台不仅提供算法模型,还驱动和生成信息,还暴露服务。直升机不选择攻击谁。但是,平台的训练数据、算法逻辑和基于权重的AI可以主动攻击每个人的声誉。这是工厂中存在的‘bug’。”他认为平台在这个问题上持放任态度。 AI应当承担侵权责任。新京报记者援引多位消息人士的话称,本文了解到,该案尚未宣布。 2026年1月上旬,在发现AI搜索生成了针对其的“组织卖淫”虚假信息后,吉成祥向百度发送邮件,说明了相关情况,并希望收到对此事的评论。受访者王兵(化名)提供照片,微软高级工程师,从事搜索引擎人工智能开发业务多年,但技术设计、配套措施、平台规定等方面的审核却跟不上。这场人类与机器之间的“战争”并不难理解。从技术角度来看,此类情况下AI“攻击”的现象属于“低级错误”。即网页内容缺乏详细的语义分析,无法区分不同个体的身份,缺乏多重语义验证和审核控制机制。王斌说:“我在技术层面完全有可能进行‘风险信息分级核查’,国际上已经存在平台相关的实施机制。”不过,百度的AI产品服务可能过于粗糙,这很可能取决于平台权衡的平衡,他表示,“这背后的原因可能是为了节省预算、减少服务、服务器负载业务考虑、更复杂的多层。”“百度等平台是否能够实现风险信息的分级核查?”新京报记者联系到截至本文撰写时,通过输入“黄桂根律师”等关键词搜索其他搜索引擎,尚未收到有效回复。他发现大多数平台的AI能力并没有将他的名字和身份与假阴性信息联系起来,甚至可以正面给他贴上“受到惩罚的匿名黄某不是黄桂根律师,他认为AI的形象无论是“坏”还是“好”,仍然被她背后的平台所控制”。ードバックや运动申し立てを行う方法を探したと指摘しました。 「私はfiドバックポータルを探すのに长い时间を费やし、プラトォームのカ」タマーサービsuに连络したこともありました。何度苦情を申し立てたとしても、コ」 2026年1月初め、AI検索により自分に対する「売春组织」に关する误った情中文ールを百度に送信した。その后、百度は状况を确认するために同氏に生成吉9月に彼女が报告したエラーメッセージの内容がまだ处理されていないことをしています。北京某报纸记者咨询了国际贸易部门的代表,并与用户一起百度搜索人工智能。 name.2025kuが寄せられており、その多くは否定的で苦情的な内容だったとし、「AIが间违ったコンテンツを生成したとの指摘もあったし、关连情报が不切」だったケーもあった」と述べた。しかし、この问题に対して先方は「ユーザーが苦」情やィードバックをすることができる」という以外の解决策を提示しませんでした。 AI犯错误时是否应该被“原谅”?后、ユーザーは证拠资料をプラttofuォームに提供し、検证后に削除されます。这种“通知并删除”模型是常见的模型解决方案。成祖氏によると、従来のネットワークサービプロバイダーと比较すると、人工知能サービプロバイダーは技术的特性、データコンテンツの处理、コンテンツの表示にいて大きな违いがあるという。这就提出了“通知和删除”规则是否可以直接类比人工智能服务提供商的违规行为的问题。这才是真正争论的焦点。 “人工智能生成的内容到底属于什么?是平台已有的公共信息的简单呈现,还是平台创作的受版权保护的作品?换句话说,人工智能只是扮演了一个被动的信息呈现者的角色,还是成为了一个相对主动的信息生产的整合者?技术中立还是片面的?平台应该谨慎到什么程度?是否适用“通知删除”规则和技术中立原则?这一切都必须基于人工智能算法模型。返回“仅凭后续训练数据的应用和逻辑综合判断并不能得出普遍的结论,需要根据技术细节进行广泛的分析和判断。“个别案件、侵权场景等。”他表示,在人工智能产生的产品引发的侵犯精神权利纠纷案件中,司法实践面临“法律适应”和“寻找规则”的双重挑战。另一方面,在现行法律体系中,可供“人工智能侵权”诉讼参考的判例并不多,司法实践中仍需不断审视和细化人工智能服务提供者的权利和责任界限。各方对此都有不同的考量。在这场人类与机器之间的“战争”中,哪一方会容忍此类事件的发生。”这位研究知识产权领域多年的大学法学教授认为,他了解被侵犯的用户的处境,但在当前公众的道德权利与科技旅馆发生冲突的情况下企业的欢呼和平台的错误并不明显,“这是为了保护和促进大规模的模式创新。”过严的监管和过分的要求,阻碍了世界创新型互联网企业的成长“法律和正义应该在促进技术发展和保护个人权利之间寻求平衡,而不应该只要求公众‘宽容’。”原谅自己的错误。 “多年来在法律和数据治理领域研究的华东政法大学刑法学院副教授、上海市数字化转型与数字法律建设研究创新团队研究员方惠英提出了不同的立场。我们认为,如果法律的适用对人们的名誉权和其他合法利益造成实质性、严重损害,法律应该提供有效的救济。”她告诉北极星NG新闻记者认为,底层修复机制:“‘取消通知’并不能完全规范平台行为。”与其任由虚假或有害内容的产生,不如完善平台的治理规则,履行其作为担保人的义务。向公众提供此类服务的平台应承担更严格的研发义务。”他建议,“层级治理”可能是解决这一困境的关键。“平台需要建立复杂的治理体系。对于一般类别的信息,例如生活信息、娱乐新闻等,可以适当简化研究流程。”但对于“强奸”、“犯罪”等可能对公众声誉产生重大影响的敏感信息,应采用可靠的数据库或跨源验证来保证信息的准确性。”这一方案也得到了高级人工智能工程师王斌的认可。他强调d 认为,作为行业标杆,人工智能领先企业应承担风险信息多重验证的首要责任。 “这既是合规要求,也是行业可持续发展的基础。”随着技术的迭代,公众对人工智能搜索的准确性和可靠性的期望只会越来越高。刘成祖认为,随着技术的不断发展,人工智能搜索的准确性和可靠性会逐步提高。通过典型案例的测试指导,帮助人工智能技术服务商防范技术应用中的风险。我们希望加强管控,优化平台的算法设计,推广使用合法且兼容的人工智能技术。人与机器之间的“战争”仍在继续,两次审判的当事人都选择不原谅,黄桂根表示,他不仅道歉,而且还为人类“寻求正义”。人类在机器和大公司面前是弱者,我凭什么要“原谅”你?胡倩,实习生,沉钰琪,编辑,胡杰,校对,赵琳

推荐文章

发表评论

邮箱地址不会被公开。 必填项已用*标注