
北美发布报道
当美国政府全面加速人工智能发展、强调“创新优先”之际,一位居住在北卡三角区的普通居民, 痛心疾首呼吁“暂停”。
4月25日,她在请愿网站(change.org)发起联名请愿:像监管药品一样监管AI,在它全面进入社会之前,先建立强制准入制度。
她的理由很简单——
人类已经为“先发展、后治理”付出过代价,这一次,不该再重来。

一片森林的消失,和一个时代的隐喻
萱(Sue Ana)是一名自然摄影爱好者。在长期拍摄美国东部森林的过程中,她逐渐意识到一个事实:真正拥有数百年树龄的原始森林,在美东已经所剩无几。
如今仅在宾州长木植物园、北卡 Joyce Kilmer Memorial Forest 等极少数区域,还能看到历史的痕迹。
她把这一现象,与19世纪美国“伐木时代”联系在一起——
那是一个资本无序扩张的年代,森林被“砍完就走”,直到生态危机爆发,法律才姗姗来迟。
“森林是被砍光之后,才开始保护的。”她说。
而在她看来,今天的AI,正站在一个相似的起点上。
“数字森林”,正在被快速开发
在请愿说明中,她提出一个颇具冲击力的类比:
- 当年的森林,是自然资源
- 今天的AI训练数据,是人类知识与创作的集合
如果缺乏监管,后者同样可能被“过度开采”。
她担心的,不只是技术本身,而是更深层的影响:
- 隐私被持续侵蚀
- 错误信息影响判断
- 技术被用于攻击或操控
- 人类决策权逐渐被替代
“森林可以再长出来,但有些东西一旦被破坏,是回不去的。”
一份请愿:把AI纳入“强制监管”
基于这些担忧,她在 Change.org 发起请愿,核心诉求明确而直接:
建立国家级AI产品强制准入制度。
简单来说,就是把AI当作“高风险公共产品”来管理,而不是普通软件工具。
她提出的关键措施包括:
- AI产品上市前必须通过强制安全审查
- 设立国家级监管机构统一认证
- 强制披露错误率、适用范围等关键指标
- 企业需对AI输出承担法律责任
- 禁止AI在关键领域独立替代人类
一句话概括:
不能让AI“先上车、后补票”。
背景:美国AI政策正在“踩油门”
这份请愿,并非孤立出现。
就在不久前,白宫发布国家AI政策框架,释放出明确信号:美国将进入AI加速发展阶段。
根据多方解读,这一框架的几个核心方向包括:
- 优先保障创新速度,减少监管负担
- 强化联邦层级主导,限制州级差异化监管
- 倾向通过技术优势应对安全问题
- 探索“监管沙盒”等灵活机制
这一转向,被一些人视为保持全球竞争力的必要选择,但也让另一部分人开始担忧——
如果发展速度超过安全边界,会发生什么?
社会分歧正在出现
围绕AI政策,美国社会的分歧逐渐清晰:
支持者认为“必须加快发展,才能保持技术领先”。
担忧者则指出:监管不足可能带来系统性风险;地方政府监管空间被压缩;普通人缺乏保护机制……
一些公共组织已发起联署,呼吁加强安全审计、保留地方监管权,并关注就业与隐私问题。
“我只是个普通人,但总要有人先说”
对于这场请愿,萱的态度很清醒:“我一个人肯定改变不了什么,但至少可以当个吹哨人。”
她认为,目前AI立法仍处于“窗口期”,公众声音仍有可能产生影响。
但她也坦言:“很多时候,都是等问题真正发生了,立法才会开始。”
请愿书链接:
附:请愿书全文
《关于建立国家级AI产品强制质量监管与准入制度的联名请愿书》
当前,人工智能技术正迅速进入社会各个关键领域,并直接参与人类判断与决策过程。在缺乏国家法律强制监管的情况下,大量未经验证的AI产品已进入公众使用与职业场景,实质上构成对社会的无序试验,对公共安全与决策质量带来现实风险。
我们认为,AI产品已不属于普通工具,而是具有公共影响力的技术产品,必须纳入国家法定监管体系,不得继续处于无强制约束状态。
基于此,我们向国家立法机关提出如下立法请求:
一、制定AI产品强制准入的国家法律制度
参照 Food and Drug Administration 的药品监管立法逻辑,建立AI产品上市前强制审查制度。
法律应明确规定:
任何AI产品在进入市场、向公众开放或进入工作岗位前
必须依法完成质量、安全与能力的强制检验与审查程序
未经法定程序审查通过的AI产品,一律不得投入使用
二、依法设立国家级AI监管与认证机构
通过国家立法设立具有法定权力的AI监管机构,统一负责产品准入与监管执法。
该机构依法行使:
AI产品检测与准入标准制定权
产品认证审批权
监管执法权
违规处罚与强制下架权
任何企业不得自行评估或认证其产品合格性,不得“自证安全”。
三、建立认证后的法定质量责任与持续监管制度
AI产品在通过法定认证后,仍必须接受持续监管,并承担明确法律责任。
法律应强制要求:
产品必须提供具有法律效力的质量说明
明确标注:
幻觉率 / 错误率
性能边界
适用范围与禁用场景
企业对其产品输出结果承担相应法律责任
对于存在重大误导风险或质量缺陷的产品,监管机构应依法:
强制下架
禁止继续使用
追究相关法律责任
四、严禁AI产品未经认证替代人类独立上岗
法律应明确规定:
任何AI产品未经产品认证与岗位应用认证,不得进入任何岗位独立执行工作任务。
同时规定:
AI不得以任何形式替代人类独立承担岗位职责
在涉及生命健康、司法公正、教育传承等关键领域:
AI不得独立执行工作任务
必须由具备法定执业资格的人类参与
并由人类承担最终责任
不得以“AI决策”作为免责理由
结语
我们认为,技术进步不应以牺牲人类文明的质量、安全与尊严为代价。任何能够参与人类判断与社会运行的AI产品,均不得绕过法定监管直接进入社会使用。
通过国家立法建立AI产品强制质量监管与准入制度,是保护公众利益、维护社会稳定的基本底线。
Petition for National Mandatory Quality Regulation and Access Control of AI Products
As Artificial Intelligence technology rapidly permeates every critical sector of society, directly influencing human judgment and decision-making, the lack of mandatory state-level regulation has led to a dangerous vacuum. A massive influx of unverified AI products has entered the public and professional spheres, constituting an unregulated experiment on society. This poses an immediate risk to public safety and the quality of collective decision-making.
We believe that AI products are no longer mere “tools” but high-impact technical systems that must be integrated into a statutory national regulatory framework. They must not be allowed to operate without mandatory oversight.
Therefore, we formally petition the National Legislature for the following legislative actions:
- Establish a Mandatory Market-Access Legal Framework for AI Products
Drawing on the regulatory logic of the Food and Drug Administration (FDA) for pharmaceuticals, the state must establish a mandatory pre-market review system for AI products.
The law should explicitly state:
Any AI product, prior to entering the market, being released to the public, or being integrated into a professional role, must legally complete a mandatory quality, safety, and capability inspection and review process.
Any AI product that has not passed the statutory review process is strictly prohibited from public or professional use. - Establish a National AI Regulatory and Certification Authority
Legislate the creation of a national authority with the legal power to manage AI product access and enforcement.
This agency shall have the statutory power to:
Set mandatory standards for AI product testing and market access.
Manage the approval and certification of products.
Exercise enforcement, including the power to impose penalties and mandate the immediate removal of non-compliant products.
No corporation shall be permitted to self-assess or self-certify the safety of its own products. - Establish Statutory Quality Liability and Continuous Oversight
After receiving certification, AI products must remain under continuous surveillance and carry clear legal liabilities.
The law must mandate:
Products must provide legally binding Quality Specifications.
They must clearly disclose: Hallucination/Error Rates, Performance Boundaries, and Forbidden Use Cases.
Corporations shall bear legal responsibility for the outputs of their products.
For products with significant risks of misleading information or quality defects, the regulatory agency must:
Mandate an immediate recall/removal from the market.
Ban further use.
Pursue relevant legal liabilities against the manufacturer. - Prohibit AI Products from Replacing Humans Independently without Certification
The law must explicitly state:
“No AI product shall independently perform professional duties in any position without specific product and occupational-application certification.”
Furthermore:
AI shall not, in any form, replace humans in independently assuming professional responsibilities.
In critical sectors involving Life and Health, Judicial Justice, and the Transmission of Education/Knowledge:
AI is prohibited from executing tasks independently.
Must involve the participation of legally qualified human professionals.
Humans must bear the ultimate responsibility.
“AI Decision-Making” shall never be used as a legal defense for the exemption of liability.
Conclusion:
Technological progress must not come at the expense of the quality, safety, and dignity of human civilization. Any AI product capable of participating in human judgment and social operation must not bypass statutory regulation to enter society.
Establishing a mandatory quality regulation and access system for AI through national legislation is the fundamental baseline for protecting public interest and maintaining social stability.
