为了防患于未然,一些学校,如纽约市公立学校,很快禁止了这项技能,但几个月后又取消了禁令。
现在,许多成年人已经理解了这项技能,学校也已经开始探索如何利用人工智能系统来磨炼孩子们的批驳性思维。

致新学期:运用生成式人工智能的6个留心事项_人工智能_机械人 AI简讯

(来源:AI 天生)

但孩子们在学校和日常生活中碰着的不仅仅是人工智能谈天机器人。
人工智能越来越遍及:在流媒体上向我们推举节目,帮忙语音助手回答我们的问题,驱动社交媒体的内容过滤工具,以及供应解锁智好手机的新办法。

麻省理工学院教授、杰梅尔诊所人工智能系主任瑞吉娜·巴兹雷(Regina Barzilay)表示,只管一些学生总是比其他学生对人工智能更感兴趣,但理解这些系统如何事情的基本事理,正成为一种技能素养的基本形式,这是每个高中毕业的人都该当知道的。
该诊所最近为 51 名高中生举办了一个暑期项目,这些学生对人工智能在医疗保健中的运用很感兴趣。

她说,该当鼓励孩子们对在我们生活中越来越普遍的系统感到好奇。
她补充道:“展望未来,如果只有上过大学、学习数据科学和打算机科学的人理解它的事情事理,就可能会形成巨大的差异。

在新学年开始之际,以下是《麻省理工科技评论》关于如何开始教诲孩子什么是人工智能的六条主要建议。

记住,人工智能不是你的朋友

谈天机器人被创造出来的目的只有一个:谈天。
ChatGPT 在回答问题时所用的友好、对话式的语气会让学生很随意马虎忘却他们是在与人工智能系统互动,而不是与值得相信的好友互动。
这可能会让人们更有可能相信这些谈天机器人所说的话,而不是对其所给出的回应持疑惑态度。

美国老多米尼克大学(Old Dominion University)专门研究教诲数字创新的教授海伦·克伦普顿(Helen Crompton)表示,虽然谈天机器人非常长于扮演一个貌似富有同情心的“人”,但它们只是在利用互联网上网络的数据,并模拟人类说话的办法。

她说:“我们须要提醒孩子们,不要向 ChatGPT 这样的系统供应敏感的个人信息,由于这些信息都会进入一个大型数据库。
”一旦你的数据涌如今数据库中,就险些不可能删掉。
它可能在未经你赞许的情形下被用来让科技公司赚更多的钱,乃至可能被黑客提取。

人工智能模型不是搜索引擎的替代品

大型措辞模型的好坏取决于演习它们的数据。
这意味着,只管谈天机器人长于用看似合理的文本自傲地回答问题,但它们供应的信息并不都是精确或可靠的。

众所周知,人工智能措辞模型也会将虚假信息作为事实来呈现。
这也被称为“人工智能幻觉”。
根据这些数据网络的地方,它们可能会使偏见和潜在的有害刻板印象长期存在。
学生对待谈天机器人回答的态度,该当像对待在互联网上见到的任何类型的信息一样:保持批驳性。

斯坦福大学教诲研究生院副教授维克多·李(Victor Lee)为高中课程创建了免费的人工智能资源,他说:“这些工具并不能代表所有人,它们见告我们的是基于它们所接管的演习。
不是每个人都会在互联网上活动,以是这些人不会被反响(代表)出来。
在我们点击、分享或转发之前,学生们该当停下来反思,对我们所看到的和相信的更加挑剔,由于很多都可能是假的。

英国谢菲尔德哈勒姆大学生物科学教诲教授大卫·史密斯(David Smith)表示,虽然利用谈天机器人办理学业上的问题可能很诱人,但它们并不能取代谷歌或其他搜索引擎。
他说,学生们不应该认定大型措辞模型所说的统统都是无可争议的事实,并补充道:“无论它给你什么答案,你都必须检讨一遍。

老师可能会责怪你用了人工智能,但事实上你没有

现在,天生式人工智能已经广泛遍及,西席面临的最大寻衅之一是确定学生是否利用了人工智能完胜利课。
虽然许多公司已经推出了承诺检测文本是由人类还是机器编写的产品,但问题是,这些人工智能文本检测工具非常不可靠,而且很随意马虎被欺骗。
有很多例子表明,西席认为一篇文章是由人工智能天生的,而事实并非如此。

李说,主要的第一步是,熟习孩子所在学校的人工智能政策或人工智能表露流程(如果有的话),并提醒孩子遵守这些政策。
克伦普顿说,如果你的孩子被误认为在作业中利用人工智能,记得保持镇静。
她补充道,不症结怕质疑,讯问这个决定是如何做出的。
如果你须要证明你的孩子没有直接复制粘贴 ChatGPT 天生内容,要记得 ChatGPT 会默认保存个人用户的对话记录。

推举系统旨在让你上瘾,并可能向你展示糟糕的东西

芬兰赫尔辛基大学打算机科学教授提姆·鲁斯(Teemu Roos)正在为芬兰学校开拓人工智能课程,他说,理解并向孩子们阐明推举算法是如何事情的很主要。
科技公司通过人们在其平台上不雅观看广告来赢利。

这便是为什么他们开拓了强大的人工智能算法来推举内容,比如 YouTube 或 TikTok 上的***,这样人们就会上瘾,并尽可能永劫光地利用。
算法会追踪人们不雅观看的***类型,然后推举类似的***。
例如,你看的猫猫***越多,算法就越有可能认为你想看更多的猫猫***。

鲁斯补充道,这些推举行事每每会勾引用户看到更多虚假信息等有害内容。
这是由于人们方向于勾留在奇怪或令人震荡的内容上,比如关于康健的缺点信息或极度政治意识形态,很随意马虎陷入信息茧房,以是最好不要轻易相信在网上看到的统统。
你也该当仔细检讨其他可靠来源的信息。

安全、负任务地利用人工智能

天生式人工智能不仅仅局限于文本,有很多免费的深度假造(deepfake)运用可以在几秒钟内将某人的脸安在别人的身体上。
虽然学生可能已经知晓在网上分享私密照片的危险,但他们也该当同样当心将朋友的脸上传到低俗运用程序中,由于这可能涉嫌违法。
例如,有法院曾认定,青少年发送关于其他青少年乃至自己的私密照片,是在传播***内容。

李说:“我们与孩子们就负任务的网络行为进行互换,既为了他们自己的安全,也为了不骚扰或领导他人,但我们也该当提醒他们自己的任务。
就像恶劣的谣言传播一样,你可以想象当有人开始传播虚假图片时会发生什么。

李指出,这也有助于为儿童和青少年供应利用互联网的隐私风险或法律风险的具体例子,而不是试图与他们评论辩论整体却模糊的规则或辅导方针。
例如,他说,与见告他们“把稳隐私”的普通警告比较,与他们谈论人工智能人脸编辑运用将如何留存他们上传的图片,或将其指向平台被黑客入侵的***故事,这样做会给他们留下更大的印象。

不要错过人工智能真正善于的东西

不过,我们并不能只看到悲观的一壁。
虽然早期教室上关于人工智能的许多谈论都环绕着它作为作弊赞助工具的潜力展开,但当它被聪明地利用时,可能成为一个非常有用的工具。

面对一个很难明得的棘手问题,学生可以哀求 ChatGPT 一步一步地为他们讲解,或者将其改写为说唱的形式,或者扮演生物老师的角色,让其测试自己的水平。
它还特殊善于快速绘制详细的表格,来比较各个大学的利害。
换成人类的话,这每每须要数小时的研究和编辑。

克伦普顿指出,向谈天机器人查询高难度单词的词汇表,或在测验前练习历史问题,或帮助学生在写完答案后评估答案,都是对他们有益的用场。

她说:“你只须要记住它有偏见、幻觉和不准确的方向,以及你自己培养数字素养的主要性就够了。
如果学生以精确的办法利用它,那就太棒了。
这个技能太新了,我们也只是摸着石头过河。

支持:Ren