社会人进化成科技人/张永麒

华人社会最近有一个人非常高调,其掌控的公司带领美国各个科技股一路飙涨,成为新一代的“科技之神”,他就是英伟达创办人兼总执行长黄仁勋,被称为“人工智能(AI)教父”。
他引领科技界的最新“大爆发”,即“生成式人工智能”。英伟达开发的图形处理单元(GPU),据说是以图形的方式来加速计算机处理功能,还有许多一般人不明白的术语,成为“神”一般的存在。
黄仁勋会脱颖而出,据说是他开发的GPU,又被称为“显卡”,最初是用在玩游戏。现在被用在“生成式人工智能”,各种“自动化、图像化、视频化”的生成模式,在速度上取胜。
根据网上资料指出,“GPU是一种专门在个人电脑和一些移动设备上做图像和图形相关运算工作的微处理器,实现图形加速。”
之前一般人熟悉的称为“CPU”,作为电脑的中央处理器,是计算机(电脑)的“大脑”。CPU一般由逻辑运算单元、控制单元和存储单元组成,是信息处理、程序运行的最终执行单元。
从网上讯息得知,电脑在处理资料时,从输入、处理和输出,需要经过一个过程,需要一个“处理器”,需要输入很多的“数据”,才可以“处理成”和“输出”结果。
据说,现在的人工智能计算机(电脑)需要输入很多资讯、图像、文字等,处理器才可以经过深度学习,以过去的经验而“生产”或“生成”新的图像或结果。
最近热议的“Sora”据说是以文字生成视频方式崛起,成为未来重要的科技变革,将颠覆许多人的认知,对社会的财富分配和人类的命运造成不可估算的影响。
从心理抗衡“AI”冲击
在电脑科学界,其处理能力已从“1”和“0”的符号,进化至“图像”方式。一般人可能不知道这是怎么进行的,只知道其产生的结果,或称为“生成式人工智能”的冲击。现在,一个人在社会学习的模式是通过文字和语言,从阅读书籍和明白文章而增加知识。
笔者提出以“大蓝图”的“输入学习法”,以便为自己设置一个“内在处理器”的新颖想法,从心理上来抗衡“人工智能”的冲击。
社会人群的移动很自然的形成金字塔,精英们都在塔顶尖,底下大部分的都是普通人。在科技的施虐下,中产阶级据说也正在消失中。在面对科技的霸权,社会人看来没有什么反抗的能力。
普通人在面对科技化的社会,是否能够转变成为科技人?看来,这条道路也非常狭窄。那么,他们是否愿意发展一个群体的“智能超人”意识,以共同捍卫在社会的生存权以及人类的尊严?
5件事绝不能告诉ChatGPT 专家警告:或失掌控权

ChatGPT(取自unsplash image)
(纽约16日讯)随着人工智能(AI)聊天机器人蓬勃发展,人们开始向ChatGPT等聊天机器人倾诉各种疑难杂症,包括咨询感情困扰、撰写电子邮件、把狗狗的照片变成人类等等。但专家指出,有5件事情显然永远不应该告诉AI,例如在工作上应用时,就可能不小心泄露企业机密。
史丹佛大学“人本人工智能研究中心”(HAI)研究员珍妮佛(Jennifer King)向《华尔街日报》表示,当你向聊天机器人输入一些东西时,“你就失去了对它的掌控权”。
1. 企业资讯
如果你在工作中使用ChatGPT或其他AI聊天机器人,例如撰写电子邮件或编辑文件,可能不小心暴露客户资料或非公开商业机密。一些公司会订阅企业版AI聊天机器人,或者拥有具备保护措施的客制化AI程式,相对能够防止这类问题。
2. 医疗结果
尽管医疗业非常重视患者隐私,会严格保护患者个资并且防止歧视,但AI聊天机器人通常不包括在此范围内。如果你觉得有必要请ChatGPT解释医疗检测结果,建议在上传文件之前,事先剪裁或编辑,“只保留检测结果”的部分就好。
3. 登入资讯
一些人可能认为,随着AI执行任务的能力有所提高,可以放心把各种平台的账号密码交给它们,但AI机器人不是保险箱,也不能保证这些账号的安全,把这些资讯输入“密码管理工具”,才是更好的选择。
4. 身分资讯
不要向ChatGPT揭露任何身分资讯,例如生日、地址、电话号码、身分证字号、护照号码等。尽管一些聊天机器人会对这些敏感资讯进行编辑,但更安全的方法就是完全避免分享这些资讯。
OpenAI一名发言人向《华尔街日报》表示,“我们希望我们的AI模型了解世界,而不是个人。我们积极减少搜集个人资讯。”
5. 金融账号
绝对不要提供你的银行或投资账号,这个资讯可能被骇客入侵,导致资金流向遭到监控或盗用。
事实上,OpenAI在官网写道,“请不要在你的对话中分享任何敏感资讯”,Google也在AI聊天机器人Gemini的页面呼吁使用者不要输入“你不希望审查员看到的机密资讯或任何数据。”
如果仍想和AI分享私密资讯,建议更换成高强度密码,并且启用多重要素验证。人工智能公司“Anthropic”总执行长克林顿(Jason Clinton)建议,可以在每次使用完毕之后“删除对话框”,企业通常会在30天之后,永久删除这些数据。
新闻来源:ETtoday新闻云