组卷题库 > 高中英语试卷库
试题详情
 阅读理解

In one horrible film plot, AI eventually outsmarts humans and takes over computers and factories. In another, large language models (LLMs) of the sort that power generative AI like ChatGPT give bad guys the know-how to create destructive cyberweapons (网络武器).

It is time to think hard about these film plots, not because they have become more probable but because policymakers around the world are considering measures to guard against them. The idea that AI could drive humans to extinction is speculative — no one yet knows how such a threat might materialise(成为现实) and no common methods exist for determining what counts as risky. Plenty of research needs to be done before standards and rules can be set.

Governments cannot ignore a technology that could change the world deeply. Regulators (监管者) have been too slow in the past, but there is danger in acting hurriedly too. If they go too fast, policymakers could create global rules that are aimed at the wrong problems and are ineffective against the real ones.

Because of the computing resources and technical skills required, only a handful of companies have so far developed powerful "frontier" models. New hurried regulations could easily block out competitors to the "handful of companies", especially because these companies are working closely with governments on writing the rule book. A focus on extreme risks is likely to make regulators careful of open-source models, which are freely available and can easily be revised(修改).

The best that governments can do now is to set up the basic systems to study the technology and its potential risks, and ensure that those working on the problem have enough resources. As AI develops further, regulators will have a far better idea of what risks they are guarding against, and consequently what the rule book should look like. A fully mature body could eventually take shape. But creating it will take time and reflection.

知识点
参考答案
采纳过本试题的试卷
教育网站链接