本篇文章给大家谈谈素材交易平台诈骗套路,以及干货分享!正确使用素材的十种套路对应的知识点,文章可能有点长,但是希望大家可以阅读完,增长自己的知识,最重要的是希望对各位有所帮助,可以解决了您的问题,不要忘了收藏本站喔。
本文目录
一、干货分享!正确使用素材的十种套路
今天这篇文章将要告诉你,用最少的素材做设计,千万不要被素材绑架,没有素材就做不了设计。
你有没有遇见这种情况,客户就甩一张图一句广告语给你,甚至有些客户一张图都不给,就给你一个主题,然后叫你去设计。
今天这篇文章将要告诉你,用最少的素材做设计,千万不要被素材绑架,没有素材就做不了设计。
面对文案和素材很少或没有素材时很容易出现画面单调,这时就要合理的加入一些辅助元素或更多的变化来增加设计感,从而让画面更丰富。
我总结了几种常用套路供大家参考。
如果文案和素材过少,加入英文是常用的一种方法。
英文不仅能能够弥补单调的画面,还能提升产品的气质。
下面是我收集的一些优秀案例供大家借鉴
在没有素材的情况下,对字体进行处理和设计将会提升整体设计感,能解决画面单调、呆板的问题。
在文字中间填充纹理也是丰富画面的一种方法,加入纹理或肌理的时候需要注意:01.小字体和过于纤细的文字不适合做纹理;02.纹理是否高清,质感和细节是否丰富;03.纹理大小比例关系是否合适,如下图。
左边的纹理放得太大细节丢失严重,右边大小合适既有细节又不失美观。
我们把一排单调的文案,从新组合排列,改变他们之间的距离、位置来增加设计感,但是在排列时需要注意我们的阅读习惯,千万不要出现不利于阅读的组合,如下图。
现代人的阅读习惯是从左往右读,而左侧的排列方式就不符合我们的习惯,所以会产生混乱,右侧经过调整后便于阅读。
替换笔画首先考虑合理性和识别性,替换笔画后不能产生歧义或错字现象,根据笔画的特征或结构去替换笔画,以免导致修歧义或错字现象,如下图。
左边“动”字替换的心形图案明显不合适,如果只单独看“动”字你会不知所云,右边是经过调整后的,不仅要保证寓意还要保证字体的识别度。
为了画面的设计感和氛围,我们常常会加入点缀图形去活跃画面,所加入的图形需要和主题吻合才能烘托出画面的氛围,常见的点缀元素有:点、线、几何图形、具象形或抽象图案等,但是请记住,我们说的是点缀,所以不能喧宾夺主,也不能加入太多,点缀是配角。如图
上图中是云和三角形,下图中是烟雾还有周围的小装饰都很好的增加设计感和氛围。
如果客户给的图片比较有表现力,可以直接用图片作为背景,需要注意的是如果图片中有人物,文案避免破坏人物五官。
以上所用图片来自网络,如有版权问题请联系删除!
二、AI是什么骗术
技术的发展是一把双刃剑,给人们生活带来便捷体验的同时,也会被很多不法份子盯上,衍生出各种诈骗新方式,AI诈骗就是其中之一。为了争取不被骗子收割,预先了解AI有哪些能力,是必不可少的一课。
想必大家都没少经历过这样的场景:接通一个看似官方的来电,声音那头会非常自然地跟你打招呼“你好”,停顿之后,如果你客气地回应“哪位”,对面的机器人就会开始跟你寒暄,鼓励你办理业务。更有甚者,AI机器人还会用虚假借口索取金钱或个人信息。
机器人电话,就是AI语音合成技术一种比较广泛的应用。类似这样的AI机器人电话诈骗近年来公安机关已破获多起,然而除了用户主动进行“诈骗号码”标记之外,目前并没有其他能真正有效阻止非法机器人电话的方法。
据华尔街日报报道,一家英国能源公司CEO接到了来自其母公司的电话,电话里这位自称“首席执行官”一天打了三通要款电话。要求他把资金汇入匈牙利供应商,声称为了稳固两方的合作关系,最终成功骗走了22万欧元。
值得关注的是,来电人的英语带点德国口音,有着和老板说话一样的旋律,跟母公司的老板一模一样,至少从声音来判断是这样,肯定是老板本人了。
这里采用的就是AI语音克隆技术。除了能够利用神经网络对原始音频进行建模和模仿之外,AI还能够分析本人的社交网络,很快掌握个性化的说话方式、与周围人的关系、兴趣爱好等等,从而模仿你与身边的人自然地交流。甚至带有特殊口音或者纯方言的语音合成也是可以做到的。
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认。前段时间异常火爆的换脸App“ZAO”,可以将一个人的脸换到另一个人的身体上。只要你搜索到了足够多的素材,就能完全“换脸”,人人都能够上手。
直播平台上有人冒充王源绘声绘色地直播,却依然能骗过广大粉丝的一幕,就是变脸+变声两种技术相结合的应用。
骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
举个栗子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。
运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?
如何有效防范,避免更多人上当受骗,这或许需要政策、技术和个人三方面共同发力。
随着AI诈骗愈演愈烈,许多新的技术方法也开始被应用在防范AI诈骗上。比如安全公司赛门铁克,最近就提出了采用区块链技术和IP语音(VoIP)呼叫的方法,来辨别来电者的真实性,从而减少那些模拟来自上级的诈骗电话。
在不明确技术泛滥后果的前提下,合理地释放技术成果也成为一些科技企业的选择。比如OpenAI前段时间推出的性能更高的无监督语言模型GPT-2,就只发布了简化版,不发布数据集、训练代码以及模型权重。
除了技术人员与黑客们斗智斗勇,产业界也开始从规则建设的层面,为滥用AI的行为设立了禁区。
FTC和FCC近年来都加强了对非法机器人电话的监管行动,向八家小型电信运营商和互联网通讯公司发出通知,敦促他们追捕并关闭可疑的欺诈电话来源。
美国安全中心发布的《人工智能与国家安全》报告中,也明确将人工智能伪造技术列为威胁国家安全的重点技术。
中国也开始通过政策管理和技术限制等途径进行布局,来应对人工智能的潜在安全风险。
保护个人信息。为防止骗子将个人信息进行AI技术处理,从而进行诈骗,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
身份验证。涉及到转账交易等行为,在无法确认对方身份时,可以将到账时间设定为“24小时到账”,以预留处理时间。即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
相互提示,共同防范。多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗,尤其是家中老人。面对形形色色的网络诈骗,一定要警惕三分哦!
三、如何防范智能AI诈骗
1、针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。
2、如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。如不慎被骗或遇可疑情形,请注意保护证据立即拨打96110报警。
3、随着ChatGPT和各类AI技术的广泛应用,AI诈骗手段日渐丰富,各类案件层出不穷。
4、4月7日,浙江杭州萧山区检察院曝光的一个“女神群”引发关注。
5、80后安徽小伙虞某在网上推广AI换脸技术及相关的软件从中获利。为吸引他人关注,虞某将原本“换脸软件资源群”的群名更改为“女神试看群”,通过互联网下载了部分淫秽视频,截取片段后发布在该公开群中,吸引、招揽观看者加入,观看者若要看完整版则需缴纳198元-498元不等的“会费”进入“内部群”。
6、此外,虞某宣称,顾客还能使用不同的女明星的形象,进行“私人定制”。截至案发,公安机关共在虞某所组建的公开群内查证淫秽视频1200余部、图片1600余张,经鉴定,上述均系淫秽物品。2023年3月28日,萧山区检察院依法以制作、传播淫秽物品牟利罪对虞某提起公诉。案件目前正在法院审理中。
7、对此,萧山检察官提醒,“AI换脸技术”即便只是用来搞笑或者制作恶搞照片,也有可能涉及侵犯肖像权、名誉权,造成严重后果的,还可能构成侮辱罪或者诽谤罪。希望大家依法使用该项技术,一旦遇到类似本案中利用“AI换脸技术”实施犯罪行为的,应第一时间固定证据,并及时向司法机关报案。
8、除利用AI换脸诈骗外,还有人利用ChatGPT炮制不实信息。不久前,甘肃平凉市公安局网安大队就侦破一起类似案件。
9、4月25日,平凉市公安局崆峒分局网安大队在日常网络巡查中发现,某百度账号出现一篇标题为“今晨甘肃一火车撞上修路工人致9人死亡”的文章,初步判断为信息虚假不实。
10、民警发现,共计21个百度账号在同一时间段发布该文章,文章内容地点涉及全国多地。经查,涉案百度账号均为深圳某自媒体公司所有,其法人代表洪某弟有重大作案嫌疑。原来,洪某弟购买大量“百家号”,并通过ChatGPT人工智能软件将搜集到的热点新闻修改编辑,随后上传赚取大量流量获利。目前,洪某弟已被采取刑事强制措施,案件正进一步侦办中。
11、骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。
12、某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
13、人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成任何人,再通过视频方式进行信息确认,真是防不胜防!
14、骗子首先分析公众发布在网上的各类信息,根据所要实施的骗术,通过AI技术筛选目标人群。在视频通话中利用AI换脸,骗取信任。
15、近日,小李的大学同学通过QQ跟她借钱。对方打过来一段四五秒的视频电话,小李看到确实是本人,便放心转账3000元。然而,她在第二次转账时感觉异常,便再次拨通对方电话,这才得知同学的账号被盗,遂报案。警方判断,那段视频很有可能是被人换了脸。
16、微信语音居然也能转发,这操作简直了!骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。
17、尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。
18、第四种:通过AI技术筛选受骗人群
19、骗子不是漫无目的地全面撒网,而是别有用心地锁定特定对象。他们会根据所要实施的骗术对人群进行筛选,从而选出目标对象。
20、举个栗子:当进行金融诈骗时,经常搜集投资信息的小伙伴会成为他们潜在的目标。
21、运用AI技术,再加上套路和剧本的演绎,这样的诈骗手段,小伙伴们能hold住吗?
22、面对利用AI人工智能等新型手段的诈骗,我们要牢记以下几点:
23、在涉及到转账交易等行为时,小伙伴们要格外留意,可以通过电话、视频等方式确认对方是否是本人。
24、在无法确认对方身份时,可以将到账时间设定为“2小时到账”或者“24小时到账”,以预留处理时间。尽量通过电话询问具体信息,确认对方是否为本人。
25、即便对方运用AI技术行骗,也可以通过提问的方式进一步确认身份。建议大家最好向对方的银行账户转账,避免通过微信等社交软件转账。一方面有利于核实对方身份,另一方面也有助于跟进转账信息。
26、一个俄罗斯的程序员觉得在家开会无聊,就开发了这样一款软件,可以把自己的连换成任何人进行聊天,马斯克、马云、马化腾都可以,让老板和同事误以为大佬乱入会场。
27、加强个人信息保护意识,小伙伴们要谨防各种信息泄露,不管是在互联网上还是社交软件上,尽量避免过多地暴露自己的信息。
28、对于不明平台发来的广告、中奖、交友等链接提高警惕,不随意填写个人信息,以免被骗子“精准围猎”。
29、这些高科技手段的诈骗方式,迷惑了很多小伙伴。警察蜀黎也提示各位要多多提醒、告诫身边的亲人、朋友提高安全意识和应对高科技诈骗的能力,共同预防受骗。
30、做好家中老人的宣传防范工作。提醒老年人在接到电话、短信时,要放下电话,再次拨打家人电话确认,不要贸然转账。
31、小伙伴们要学会拒绝诱惑,提高警惕。避免占便宜心理,警惕陌生人无端“献殷勤”。
32、针对技术手段日益更新的AI诈骗事件,2022年11月25日,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》(下称《规定》),自2023年1月10日起施行。
33、国家互联网信息办公室有关负责人说,出台《规定》,旨在加强互联网信息服务深度合成管理,弘扬社会主义核心价值观,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益。
34、近年来,深度合成技术快速发展,在服务用户需求、改进用户体验的同时,也被一些不法人员用于制作、复制、发布、传播违法和不良信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。出台《规定》,是防范化解安全风险的需要,也是促进深度合成服务健康发展、提升监管能力水平的需要。
35、《规定》明确了深度合成数据和技术管理规范。要求深度合成服务提供者和技术支持者加强训练数据管理和技术管理,保障数据安全,不得非法处理个人信息,定期审核、评估、验证算法机制机理。深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。要求任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。【《正经社》综合整理,来源:平安包头、东方网、新甘肃客户端、武汉市反电信网络诈骗中心、人民日报等】
36、责编|唐卫平·编辑|杜海·百进·编务|安安·校对|然然
37、声明:文中观点仅供参考,勿作投资建议。投资有风险,入市需谨慎
38、转载正经社任一原创文章,均须获得授权并完整保留文首和文尾的版权信息,否则视为侵权
关于本次素材交易平台诈骗套路和干货分享!正确使用素材的十种套路的问题分享到这里就结束了,如果解决了您的问题,我们非常高兴。
声明:本文内容来自互联网不代表本站观点,转载请注明出处:https://www.41639.com/15_280682.html
