苹果手机苹果一直弹出输入密码码开不动机。啥情况

扇耳光动机不清,“处理”就难以服众
原标题:扇耳光动机不清,“处理”就难以服众
儿童节期间,一则涉及医患关系的事件在社会上炸开了锅——两岁女童医院重症监护病房遭护士“狂扇”耳光。本身就很敏感的医患关系,又碰上儿童节的时间节点,一时间口水四起。当地卫生主管部门出人意料地迅速拿出处理方案,让人有点措手不及——这么快就调查清楚了?不掌握护士“扇耳”的动机所在、仅凭网络表情就能下结论了?是否有点草率?地球人都知道,医患关系现在就像个玻璃球,你说它还算和谐,它就稳稳地在那里;但如果你说它不和谐,一摔就碎了,碎得遍地都是,还很扎手、伤人!且不管当前的医患关系到底如何,咱别观点先行乱扣帽子。先说一下发生在的一幕惨剧,同样跟孩子有关。南京江宁一起男童被泼硫酸案的最新进展发现,泼硫酸的那名男子只是因为感情纠葛,就做出如此迁怒于孩子的举动。案件的性质没变,但作案的动机显然找到了,自然能够服众。再反观护士“扇耳”,其动机何在?就目前网上反复回放的那段监控视频看,似乎护士“扇耳”成立,但视频似有后期加工痕迹,可信度也打折扣。那暂且认为“扇耳”动作成立,医者认为是为了唤醒病人,观众则认为护士在施暴。依照一个正常人的思维逻辑,一个孩子有时候因为不懂事也会引起大人反感甚至动气,但这名孩子在重症监护室,是一个等待唤醒的小生命,似不可能做出令人反感的举动。那么,护士为什么会“施暴”呢?护士压力大得抑郁症了?还是与孩子家长有感情纠葛了?或者其他原因?事出有因,这时候舆论不应急于下结论,而应该去探究事件的原因。目前,似乎没找到原因,相关主管部门就拿出处理方案以平息事态,令人难以信服。不弄清事发缘由,被绑架的医患关系、被妖魔化的医护人员,有可能再一次受到严重伤害。所以,目前最该做的,应该是调查护士“狂扇”耳光的动机所在,然后再定性不迟。而定性,也只能是个体,而不是如般的大帽子。因为,和谐社会是“建设”出来的,不是“破坏”出来的。新华社记者朱旭东
用手机随时随地看新闻
独家独到独立
用户名&&密码所有评论仅代表网友意见,凤凰网保持中立 
04/21 07:02
04/21 07:02
04/21 07:02
04/21 06:49
04/21 11:28
03/09 16:46
02/24 09:56
03/09 16:45
03/09 16:45
02/27 16:10
03/13 08:17
03/12 08:43
03/12 07:22
03/12 07:57
03/20 09:48
09/07 09:38
09/07 09:38
09/07 09:39
09/07 09:39
09/07 09:39
04/26 09:49
04/23 08:47
04/23 08:57
04/23 09:14
04/23 09:22
48小时点击排行
财经 · 房产
娱乐 · 时尚
汽车 · 旅游
科技 · 健康黑客技术真的能破解手机密码?对人工智能有影响?
【黑客联盟日讯】有研究表明,黑客可以通过用户输入手机密码时倾斜手机的角度猜出用户密码。
纽卡斯尔大学的计算机科学家团队研究出一种可以猜出用户手机密码的方法:他们通过获取用户智能手机的内置陀螺仪装置所收集信息,首次尝试就能猜中密码的概率高达70%,尝试5次的命中率就达到了100%。
这种理论上的黑客行为主要利用了智能手机的一个漏洞,即移动端浏览器应用会要求手机与其分享数据。当手机使用地理位置等敏感信息时,会弹出窗口要求用户授权,用户一旦授权,网站就可以读取用户的任何授权信息。恶意网站也可以这样做,从而在用户不知情的情况下,获取看似无害的信息,如手持装置的方向等。
纽卡斯尔大学计算机科学院研究员Maryam Mehrnezhad教授称:“大部分智能手机、平板电脑和其他可穿戴设备如今都装有大量感应装置,从大家都熟知的GPS导航系统、摄像头和麦克风,到陀螺仪、旋转感应器和加速计。”
“但是由于移动设备上大部分应用程序和网站不需要用户授权,就可以获取隐私信息,恶意程序就能够接触到来自各种感应装置的数据,并使用这些数据发现关于用户的敏感信息,比如通话时长、活动情况、甚至各种密码。”Mehrnezhad解释道。
目前,网站在使用地理位置信息、摄像头和麦克风等功能时,都会要求用户授权,因为这些信息被视为敏感信息,但手机倾斜角度、手机屏幕大小这种数据一般不被认为是敏感信息,所以会被分享给所有发送共享请求的网站和应用。
但研究课题组成员表示,手机用户也不必太过担心黑客会用这种技术侵入其设备,因为这种攻击所使用的方法存在很大技术屏障,足以限制其被用于日常生活。
要达到前述70%的准确度,黑客需要对系统进行大量的“训练”,即提供足够的用户行为数据。即使是猜一个简单的4位密码,研究人员都需要手机用户输入50组已知的密码,每组输入5次,系统才能学习到用户握手机的习惯,并将猜中密码的准确度提高到70%。
由于目前行业里对于手机内置传感装置的使用方法不一而足,即使上述研究暴露除了安全漏洞,生产商也很难给出相应的应对策略。
该研究团队发现,大部分智能设备都配备,且可以被用来泄露用户信息的内置传感装置高达25种。而用户的任何一种动作,无论是点击、翻页还是长按、短按,都会造成一种独特的倾斜角度和运动轨迹,所以在一个已知的网页上,研究人员可以知道用户在点击页面的哪一部分以及他们在输入的内容。
该团队声称,已经针对此安全问题向最大浏览器提供商谷歌和苹果发出了警告,但至今没有得到回应。
未来的科技会是人工智能的天下吗?
随着政府机构开始把安全重点转向具备自学能力的自动化系统,网络安全人士也开始纷纷担心黑客对这些系统产生的影响,这甚至成为了他们最大的担忧。
随着政府机构开始把安全重点转向具备自学能力的自动化系统,网络安全人士也开始纷纷担心黑客对这些系统产生的影响,这甚至成为了他们最大的担忧。
科技网站GCN近日撰文称,人工智能技术的发展对网络安全构成了挑战,因为与防御者相比,黑客更容易操纵机器学习算法,从而获得自己想要的结果。
根据维基百科的解释,对抗性机器学习(Adversarial machine learning,以下简称“AML”)是一个“机器学习与计算机安全的交叉学科……其目的是在垃圾信息过滤、恶意软件监测和生物特征识别等对抗性设置中安全部署机器学习技术。”
据宾夕法尼亚州立大学谷歌安全项目博士尼古拉斯·帕珀诺特(Nicolas Papernot)介绍,AML希望在对抗性环境中应用机器学习算法后,能够更好地理解这些算法——所谓对抗性设置,指的是“任何一个让攻击者因为财务动机或其他动机而迫使机器学习算法采取不端行为的设置。”
“可惜的是,现在的机器学习模型有着很大的攻击面,因为它们的设计和训练过程都是为了获得良好的平均表现,但未必考虑过最差表现。从安全角度来看,这往往是最容易受到攻击的。”帕珀诺特说。正因如此,这些系统很容易遭受通用攻击——无论使用何种机器学习模型,也无论需要解决哪些任务,这类攻击都会经常发起。
范德堡大学电气工程和计算机科学教授叶夫提尼·沃罗贝琴科(Yevgeniy Vorobeychik)指出,虽然包括美国国防部及其下属的DARPA在内的政府机构“达到了我们学术界所达不到的复杂度”,但AML只是这一领域的一个开始。例如,很多国家和地区政府以及执法机构都在“认真考虑”用这种技术来预测犯罪活动。
马里兰大学助理教授都铎·杜米特拉斯(Tudor A. Dumitras)表示,在公共领域,机器学习可以有很多用途,包括“网络攻击防御技术;分析天文观测或能源部大型实验等项目的科研数据;生物学和医学研究;开发犯罪预测模型,用于制定假释或量刑决策。”这些系统都很容易遭受AML攻击。
为了说明这个问题,杜米特拉斯指出,网络防御系统必须把各种活动或信息(包括可执行程序、网络流量或电子邮件)区分为善意和恶意两种模式。
为了达到这个目的,机器学习算法需要首先学习一些已知的善意和恶意例子,以此作为起点,进一步在没有预定描述信息的情况下学习恶意活动的模式。
“聪明的攻击者可以颠覆这些技术,使之产生坏的结果。”他说。广泛来看,杜米特拉斯认为攻击者可以采取以下三种方式:
——通过操纵例子攻击训练模型,导致机器学习算法给某些案例添加错误的标签,或者学会被曲解的模型。
——通过寻找代码漏洞攻击实施过程。
——利用机器学习算法的“黑盒子”特性。
“因此,用户可能会发现,这种模型也有盲点。他们也有可能发现,这种模型的基础是人为操纵的数据,而非有意义的特征。”杜米特拉斯说,“因为机器学习往往会给出恶意或善意判断,但却不会透露这种结论背后的逻辑。”
AML在公共和执法领域的重要性逐渐提升,原因在于计算机科学家“在机器学习领域已经足够成熟,可以在很多有挑战的任务中让机器学习模型实现优异表现,有时候能超过入类。”帕珀诺特说,“因此,机器学习在很多应用领域普及开来,而且逐步成为网络安全领域的新颖候选方案。”
然而,帕珀诺特表示,只要存在没有被完全理解的缺陷——例如借助対抗性案例找到的那些缺陷——就很难信任机器学习模型给出的预测。
杜米特拉斯表示,过去10年发现了很多专门针对机器学习发起的攻击。“虽然攻击者必须解决的问题从理论上看非常困难,但很明显,完全有可能针对多数实用系统找到实用的攻击方法。”他说。
例如,黑客已经知道如何入侵基于机器学习的探测器;知道如何破坏训练过程,从而产生他们想要的结果;知道如何通过反复索取的方式来窃取专有机器学习模型;还知道如何对模型进行调整,从而学习用户的隐私信息。
与此同时,如何防御这些攻击仍然没有确定方案。“已知的防御方式寥寥无几,”杜米特拉斯说,“而且通常只针对具体的攻击模式,一旦攻击者调整战略,这些方法就会失效。”
例如,他指出,“假新闻”的传播就会影响政府的公信力。假新闻的传播面——尤其是在Facebook、Twitter或谷歌上传播的假新闻——会因为用户的点击、评论或点赞而扩大。这种行为构成了“一种毒害,使得推荐引擎使用了并不可靠的数据,有可能推广更多假新闻。”他说。
AML的兴起“导致好人面临一场极不对称的战争……坏人却可从中受益。”智能安全公司Anomali首席数据科学家伊万·怀特(Evan Wright)说,“好人要被迫阻止一些问题。”
然而,“好人”也并非完全不走运。帕珀诺特表示,通过主动地确定其机器学习算法的缺陷,政府机构和执法部门可以向前迈出一大步,逐步绘制自己的攻击面图形。他建议这些机构先从cleverhans这样的软件开始,这个Phython库可以用于确定机器学习系统暴露给对抗性例子的缺陷。
“一旦部署了机器学习模型,使得攻击者可以与之互动——即便只是通过API等有限的方式——那就应该假设有动机的攻击者有能力对该模型展开反向工程,甚至针对其训练时使用的数据展开反向工程。”帕珀诺特说。因此,他建议政府机构和执法部门密切关注与模型训练有关的隐私成本。
沃罗贝琴科建议公共领域的IT专家在这个问题上先行一步,考虑所有潜在缺陷,并针对他们可能使用的机器学习算法展开全面的攻击演习。“”他说,“全面的攻击演习对于测试这些自动化程度更高的工具大有裨益。”
虽然系统化的解决方案经常“需要针对攻击者设定不切实际的假设。”杜米特拉斯说,但却有可能在具体的案例中阻止AML攻击。不过,仍然需要开发出有效的防御手段。例如,他认为,如果攻击者“不能向机器学习系统发出请求,无法访问训练集,不知道系统的设计或其使用的特征,而且无法接触实施过程,那就很难制作对抗性样本。”
但杜米特拉斯也补充道,这些假设通常不切实际。因为很多政府系统都使用了开源机器学习库,而攻击者可以随意查看其中的代码,从而寻找可供利用的漏洞。“在这种情况下,很多人可能希望通过不透明的方式来实现安全性,尽可能隐藏跟系统运作方式有关的信息。”他说,“但最近的黑盒子攻击表明,只需要掌握很少的系统信息,便可制作出有效的对抗性样本。”
对输入的数据进行“消毒”同样可以发挥作用,因为这样做便有可能在把恶意数据提供给机器学习算法之前将其识别出来,但人工消毒无法大规模部署。“归根到底,还是需要开发出有效的防御模式来预防对抗性机器学习攻击。”
责任编辑:
声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。
黑客联盟商城批发黑龙江各类特产,想了解的朋友,可以来看看哦!
黑客联盟商城批发黑龙江各类特产,想了解的朋友,可以来看看哦!
今日搜狐热点豆丁微信公众号
君,已阅读到文档的结尾了呢~~
行为背后的动机 动机和行为的关系 动机与行为 行为背后的心理密码 行为背后的心理秘密 动机 行为 行为动机分析 行为背后的心理奥秘 背后长痘痘的原因 动机的特征
扫扫二维码,随身浏览文档
手机或平板扫扫即可继续访问
动机-行为背后的原因
举报该文档为侵权文档。
举报该文档含有违规或不良信息。
反馈该文档无法正常浏览。
举报该文档为重复文档。
推荐理由:
将文档分享至:
分享完整地址
文档地址:
粘贴到BBS或博客
flash地址:
支持嵌入FLASH地址的网站使用
html代码:
&embed src='http://www.docin.com/DocinViewer-4.swf' width='100%' height='600' type=application/x-shockwave-flash ALLOWFULLSCREEN='true' ALLOWSCRIPTACCESS='always'&&/embed&
450px*300px480px*400px650px*490px
支持嵌入HTML代码的网站使用
您的内容已经提交成功
您所提交的内容需要审核后才能发布,请您等待!
3秒自动关闭窗口

我要回帖

更多关于 苹果一直弹出输入密码 的文章

 

随机推荐