tag 标签: 黑客

相关博文
  • 热度 3
    2024-3-19 12:18
    641 次阅读|
    0 个评论
    在设计防止AI大模型被黑客病毒入侵时,需要考虑到复杂的加密和解密算法以及模型的实现细节,首先需要了解模型的结构和实现细节。 以下是我使用Python和TensorFlow 2.x实现深度学习模型推理的模型的结构和实现细节: 首先,确保安装了TensorFlow 2.x。可以使用以下命令安装TensorFlow: pip install tensorflow 然后,编写一个简单的深度学习模型并实现推理代码,我现在开始编写一段教电脑如何“深度思考”的代码。想象你正在训练一只名叫 tf.keras 的小猴子玩多层迷宫游戏: import tensorflow as tf # 教小猴子搭建迷宫:先是一间有64个门、打开方式都是用力推的房间(激活函数为relu) # 然后是一排10扇自动分类门(激活函数为softmax) def create_model (): model = tf.keras.models.Sequential( ) # 给小猴子安排一位私人教练(adam优化器)和一套评分规则(损失函数和准确率指标) model. compile (optimizer= 'adam' , loss= 'sparse_categorical_crossentropy' , metrics= ) # 训练完毕,把这只懂迷宫玩法的小猴子送出来 return model # 把刚刚训练好的小猴子领回家 model = create_model() # 给小猴子一些线索(输入数据),让它预测出口在哪 input_data = ] # 小猴子开始在脑海里模拟走迷宫,给出预测结果 predictions = model.predict(input_data) # 打印出小猴子对出口的预测:“我觉得是这里!” print ( 'Predictions:' , predictions) 【AI大模型远程控制启动车辆1(原创)】 https://www.bilibili.com/video/BV1yu4m1M7ZS/?share_source=copy_web&vd_source=b5b305bec6cbccdfdaee2cf57cf341bc 这段代码就像是我们在训练一只聪明的AI小动物解决实际问题,通过构建神经网络模型并进行推理,让电脑也能像人一样根据输入信息做出决策。 在上述示例中,我创建了一个简单的深度学习模型,该模型具有两个全连接层。然后,加载了该模型并为其提供了输入数据。最后,我运行了模型的推理,并输出了预测结果。此外,还需要考虑其他因素,如模型的优化器、损失函数和评估指标等。 为了防止AI大模型被黑客病毒入侵控制,通常可以采取以下措施: 数据加密 :对模型的数据进行加密,包括训练数据和模型参数,以防止数据在传输或存储过程中被窃取或篡改。使用安全的编程实践,如输入验证、输出编码和错误处理。 访问控制 :设置严格的访问控制机制,只允许授权的人员或系统访问模型。对模型进行安全加固,例如限制模型的访问权限、使用防火墙等。 安全评估 :定期进行安全评估和漏洞扫描,发现并修复潜在的安全漏洞。定期更新模型和相关软件,以修复已知的安全漏洞。 模型监控 :实时监控模型的输入和输出,检测异常行为或异常数据,及时采取措施防止入侵。对模型进行监控,以便及时发现异常行为。 员工培训 :培训开发和使用模型的人员,提高他们的安全意识,避免人为因素导致的安全风险。 【AI大模型远程控制启动车辆3(原创)】 https://www.bilibili.com/video/BV1UJ4m1b7s7/?share_source=copy_web&vd_source=b5b305bec6cbccdfdaee2cf57cf341bc 以下是我编写的一个简单的Python代码,用于防止AI大模型被黑客病毒入侵控制: import os # 这是咱的“大管家”,专门负责家里(系统)的各种琐事,比如找个文件、开个窗户什么的。 import sys # 哎呀,这位是“掌门人”,掌管着整个剧本(程序)的运行环境和江湖地位(参数列表)。 import time # 时间君闪亮登场!它能帮你精确到秒地数钱,哦不对,是计时。 from watchdog.observers import Observer # 嘿嘿,这是我们的“看门狗”监视器,24小时不眨眼盯着文件夹的变化,比小区保安还尽职。 from watchdog.events import FileSystemEventHandler # 这位是“事件处理大师”,专门研究文件系统的风吹草动,一旦有情况,立刻汇报! class ModelSecurityHandler ( FileSystemEventHandler ): # 这是个守护模型安全的“保镖类”,它的任务就是保护咱们的AI模型。 def on_modified ( self, event ): # 如果有人对模型文件动手脚,触发了"on_modified"这个技能(方法)。 if event.src_path.endswith( '.model' ): # 检查是不是模型文件被改了,就像检查是不是自家宝贝被摸了一样。 print ( f"检测到模型文件 {event.src_path} 被修改,正在恢复..." ) # 发现问题就马上喊话:“喂喂喂,谁动了我的奶酪?现在开始复原!” restore_model(event.src_path) # 然后赶紧调用“还原大法”,把模型恢复原状。 def restore_model ( model_path ): # 这是“还原大法”的具体实现,但目前还是空壳子,暂时假装在执行神秘操作... pass def main (): # 进入主战场啦! path = sys.argv if len 1 else '.' # 主角出场前先定个舞台(路径),如果观众(用户)指定了位置,就去那里;没指定,默认就在当前目录表演。 event_handler = ModelSecurityHandler() # 创建一个“保镖”角色。 observer = Observer() # 再召唤出一只“看门狗”。 observer.schedule(event_handler, path, recursive= True ) # 给“看门狗”安排任务,让它带着“保镖”全方位无死角盯着目标路径下的所有动静。 observer.start() # “看门狗”上岗啦! try : while True : # 主角在此陷入死循环,每过一秒都要打个盹儿(sleep)。 time.sleep( 1 ) except KeyboardInterrupt: # 唯一能让主角从梦中醒来的,只有观众按下退出键这招“狮吼功”。 observer.stop() # 接到信号,“看门狗”停止巡逻。 observer.join() # 最后,“看门狗”完成使命,与主角一同退场。 if __name__ == "__main__" : # 当整部剧由自己独立演出时,启动剧情主线! main() # 开始行动吧! 下面是不带我讲解的纯净版: import os import sys import time from watchdog.observers import Observer from watchdog.events import FileSystemEventHandler class ModelSecurityHandler ( FileSystemEventHandler ): def on_modified ( self, event ): if event.src_path.endswith( '.model' ): print ( f"检测到模型文件 {event.src_path} 被修改,正在恢复..." ) restore_model(event.src_path) def restore_model ( model_path ): # 在这里添加恢复模型的代码 pass def main (): path = sys.argv if len 1 else '.' event_handler = ModelSecurityHandler() observer = Observer() observer.schedule(event_handler, path, recursive= True ) observer.start() try : while True : time.sleep( 1 ) except KeyboardInterrupt: observer.stop() observer.join() if __name__ == "__main__" : main() 这个代码使用了 watchdog 库来监控模型文件的变化。当检测到模型文件被修改时,会调用 restore_model 函数来恢复模型。使用时需要在 restore_model 函数中添加实际的恢复模型的代码。 【AI大模型远程控制启动车辆2(原创)】 https://www.bilibili.com/video/BV11m411R7ya/?share_source=copy_web&vd_source=b5b305bec6cbccdfdaee2cf57cf341bc 在设计防止AI大模型被黑客病毒入侵的代码时,需要考虑更复杂的加密和解密算法以及模型的实现。下面我将写一个更复杂的防护措施: import os import sys import hashlib # 这位是“密码学大师hashlib”,专攻数据指纹鉴定,让你的数据独一无二。 import cryptography # “cryptography”可是安全界的重量级人物,负责各类加密解密大戏。 from cryptography.fernet import Fernet # 引入Fernet这位神秘特工,他掌管着高级加密技术,让数据变身成为秘密情报。 # 我们先定义个简单加密方法(其实就是个玩笑,实际中得用更厉害的招数) def simple_encrypt ( data ): key = Fernet.generate_key() # 特工Fernet生成一把独门密钥 cipher_suite = Fernet(key) # 拿着密钥启动加密设备 cipher_text = cipher_suite.encrypt(data.encode()) # 把明文数据变成加密后的摩斯密码 return cipher_text # 返回这串神秘代码 # 然后定义一个简单的解密方法(同样只是示例,真实情况会复杂得多) def simple_decrypt ( cipher_text ): key = Fernet.generate_key() # 又生成一把新密钥(这里演示不对,实际要使用同一把密钥) cipher_suite = Fernet(key) # 再次启动解密设备 plain_text = cipher_suite.decrypt(cipher_text) # 将加密信息破解回原始内容 return plain_text # 原始数据又回来啦! --剧情高潮-- # 接下来,主角出场!AI模型大侠的源文件名是'ai_model.bin' model_file = 'ai_model.bin' with open (model_file, 'rb' ) as f: # 打开宝箱读取模型秘籍 model_data = f.read() # 把秘籍内容全盘接收 # 对秘籍进行加密,藏起来 encrypted_model_data = simple_encrypt(model_data) # 写入加密后的秘籍副本《加密版ai_model.bin》 encrypted_model_file = 'encrypted_ai_model.bin' with open (encrypted_model_file, 'wb' ) as f: f.write(encrypted_model_data) # 秘籍存好,妥妥的 --进入日常环节-- # 加载秘籍前先解密,就像每次练功前先解锁秘籍一样 def load_ai_model (): global model_data # 全球公告:我要用到这个变量了 with open (encrypted_model_file, 'rb' ) as f: # 打开加密秘籍 cipher_text = f.read() # 把加密内容拿过来 model_data = simple_decrypt(cipher_text) # 解密,还原成真经 # 在退出程序时,记得再次加密并保存秘籍,防止被偷窥 def save_ai_model (): global model_data # 同样全球公告一下 encrypted_model_data = simple_encrypt(model_data) # 先加密 with open (encrypted_model_file, 'wb' ) as f: f.write(encrypted_model_data) # 再次将加密后的秘籍封存 # 开始修炼!加载秘籍 load_ai_model() # 安排在剧终时自动加密保存秘籍 atexit.register(save_ai_model) # 使用AI大侠开始预测(此处纯属虚构,真实情况请结合具体模型施展神通) def predict ( data ): # 在这里我们已经实现了一个神奇的深度学习推理过程... # 练习一次预测功夫 predict(model_data) 防止 AI 大模型被黑客病毒入侵控制需要综合考虑多个方面的安全措施。由于具体的实现会因模型的特点,应用场景和安全需求会有所不同。我会帮助客户构建安全的 AI 大模型。上面的只是一些基本的安全措施,在实际中我可以利用eFPGA芯片对上述的功能进行加速,下面我编写一个加速代码: // 这是一个用FPGA搭建的AI大模型安全防护系统 module ai_model_protection ( input logic clk, // 好比是AI心脏的脉搏时钟,保证一切动作有节奏地跳动 input logic rst_n, // 复位开关,一按就回归出厂设置(嗯,其实是“一键还原”) input logic data_in, // 数据入口,想象成从外界输入的小秘密 output logic data_out // 数据出口,处理后的结果像变魔术一样输出 ) ; // 我们定义一个超级简易加密算法,其实就是加个暗号(1234567890)而已 function automatic logic simple_encrypt; input logic plain_text; // 明文数据,就像没穿马甲的信息 logic cipher_text; // 密文数据,穿上马甲后它摇身一变成了谜团 // 加密过程就是给明文加上我们的暗号 cipher_text = plain_text + 1234567890 ; // 然后把穿了马甲的数据返回出去 simple_encrypt = cipher_text; endfunction // 解密算法更简单,脱掉马甲就好了,也就是减去那个暗号 function automatic logic simple_decrypt; input logic cipher_text; // 拿到穿马甲的数据 logic plain_text; // 脱下马甲后的原样数据 // 解密过程就是把马甲(暗号)去掉 plain_text = cipher_text - 1234567890 ; // 原始数据现身!然后送给需要的人 simple_decrypt = plain_text; endfunction // 接下来是藏着加密后模型数据的秘密仓库 logic encrypted_model_data; // 这里要设计一个用于AI大模型运算的硬件模块 // 当然,这里只是举个栗子,真实情况肯定得根据模型量体裁衣 module ai_model ( input logic clk, input logic rst_n, input logic data_in, output logic data_out ) ; // 在这里插入复杂的硬件加速逻辑,比如卷积神经网络的电路实现 // 比如说我们已经有一台神奇的AI算力黑科技在默默工作... endmodule // 我们召唤出这个神秘的AI模型硬件实例 ai_model ai_model_inst ( .clk(clk), // 给它接上心跳时钟 .rst_n(rst_n), // 连接复位信号,随时准备重启江湖 .data_in(encrypted_model_data), // 输入的是加密过的数据 .data_out(data_out) // 输出解密后的结果 ) ; // 对输入数据进行加密打扮,让它变成"密码"形式 encrypted_model_data = simple_encrypt (data_in); // 下面是决定何时解密的剧情高潮部分 always @(posedge clk or negedge rst_n) begin if (!rst_n) begin // 当复位信号有效(低电平),上演一键解码大戏 data_out < = simple_decrypt (encrypted_model_data); end else begin // 平时嘛,直接输出加密后的数据(保持神秘感) data_out <= encrypted_model_data; end end // 结束这场FPGA与AI大模型的奇妙合作之旅 endmodule AI大模型安全方面还需要考虑到以下几个方面才能防止AI大模型被黑客病毒入侵控制: 1. 硬件安全模块(HSM)集成 FPGA与HSM的连接 :在FPGA设计中集成硬件安全模块(HSM),该模块可以提供安全的存储、加密和解密服务。 安全密钥管理 :使用HSM生成、存储和管理用于保护AI模型的加密密钥。 2. AI模型的安全封装 模型加密 :在FPGA上部署AI模型之前,使用HSM中的密钥对模型进行加密。 解密与加载 :在FPGA运行时,使用HSM解密模型,并将其加载到FPGA的专用内存区域中。 3. 通信接口的安全防护 加密通信 :使用TLS/SSL或其他安全协议对FPGA与外部设备或网络的通信进行加密。 访问控制 :实施严格的访问控制策略,限制对FPGA的访问权限。 4. 实时监控与检测 入侵检测系统 :在FPGA上实现轻量级的入侵检测系统,用于检测潜在的攻击行为。 日志记录 :记录所有关键操作和事件,以便后续分析和审计。 5. 固件更新与补丁管理 安全更新 :通过安全的通道(如加密的OTA更新)向FPGA推送固件更新和补丁。 验证与完整性检查 :在更新过程中验证固件的完整性和来源,防止恶意修改。 6. 物理防护 物理访问控制 :限制对FPGA硬件的物理访问,防止直接攻击或篡改。 温度监控 :监控FPGA的温度,防止因过热导致的性能下降或安全漏洞。 7. 代码开发与审查 安全编码实践 :遵循安全编码最佳实践,减少软件层面的漏洞。 代码审查 :定期进行代码审查和安全漏洞扫描,确保没有安全隐患。 注意事项: 安全权衡 :在设计时需要考虑安全与性能的权衡,避免过度防护导致性能下降。 持续更新 :随着安全威胁的不断演变,需要定期更新和升级安全防护措施。 多层次防护 :采用多层次的安全防护策略,以提高整体安全性。 今天先写到这里... 上几篇: 【灵动 Mini-F5333开发板】+手把手带你玩转 CORDIC 坐标旋转算法 【灵动 Mini-F5333开发板】+(2)手把手带你玩转MindSwitch(MDS)可编程 IP互联模块 【灵动 Mini-F5333开发板】+(3)手把手带你玩转创意设计 【灵动 Mini-F5333开发板】+原创(3)连接上ChatGPT 【开源硬件小安派-Eyse-S1】+手把手玩转I2C总线 【开源硬件小安派-Eyse-S1】+(2)手把手玩转DAC 【开源硬件小安派-Eyse-S1】+原创(3)手把手玩转复杂项目 【开源硬件小安派-Eyse-S1】+原创(4)手把手玩转三组四自由度机械臂 本人在本论坛内的试读经验 : 《Proteus实战攻略》+7 第五章双足机器人仿真实例 希望这些心得体会能对您有所帮助! 谢谢! 还没吃饭中 2024年3月18日
  • 热度 8
    2023-2-9 18:23
    702 次阅读|
    0 个评论
    智能家电使人们的生活娱乐更加便利,但你知道家中电视可能潜藏着风险吗?据新闻报导,2019年曾发生过黑客针对Google自制串流装置以及智能联网电视发动攻击,黑客利用了通用即插即用(UPnP)协议取得电视盒的主控权,并透过该协议取得网络中各项装置的使用权,用户的装置将被允许由远程黑客操作,相关机密数据报含:装置链接的Wi-Fi网络、连网时间、配对的蓝牙装置,甚至设定的闹钟等都可能曝露于公开网络,此举虽为黑客警示厂商产品有资安漏洞而非恶意攻击,但也让人陷入是否被监控的疑虑之中。 早在2016年,美国民众Darren Cauthon就遭遇自家智能电视遭Android恶意软件感染,被勒索要求支付500美金以解锁的案例,最后透过重设电视才得以解除危机。 (图片来源:@darrencauthon) 据美国FBI指出,相较手机、笔电等移动装置,电视制造商更容易忽略数字安全的重要性,因智能电视内建的摄影机、麦克风或是任何跟隐私相关的设定,都可能成为黑客攻击的目标。而不仅外接式的电视盒有风险,有线电视的智能系统也有被骇入的案例,2022年乌俄战争期间,就曾发生黑客入侵有线电视的智能系统,发布反战标语的事件。 (图截取自新闻画面) 百佳泰统整出民众在使用智能流式播放装置时常遇到的问题,建议厂商可以从三个主要问题层面,进行全面性的资安检测: 1.浏览盗版影音网站 据资安业者统计,台湾去年三级警戒期间盗版影音网站链接比例激增,这类网站中暗藏许多可疑的连接,可遵循在出厂前就执行物联网弱点检测。 2.下载来路不明未经验证的追剧程序 当心贪小便宜的心态正中黑客下怀!主打免费、无限看的APP程序因其无法追溯源头,很容易被植入黑客程序,不仅侵权触法也可能外泄信用卡的资料,遭有心人士利用,因此建议相关资安人员可透过第三方工具检测漏洞,排除可能性。 3.购买未经验证的电视机顶盒 如同前项所述,贪小便宜的后果往往得不偿失,白牌机顶盒无法追溯制造源头以及内建软件是否已暗藏恶意软件,此外机顶盒多以早期的Android4.0操作系统为主,普遍存在旧系统版本资安漏洞、无法实时更新并修补漏洞的问题,需透过以下四项目共16点功能检测是否有疑虑: A.可用性 系统更新 Wi-Fi及蓝牙模糊测试 安全性回报 B.身份识别 工程模式 缴费功能身份识别 C.隐私加密 登入保密功能 最小化通讯端口 数据传输 敏感数据存取 数据记录删除 数据储存保护 D.安全功能 操作系统常见漏洞 实体端口安全 敏感数据储存 Wi-Fi网络热点 内建软件安全 经过以上一系列的检测后,可避免绝大多数消费者在输入个资或安装软件后,装置被植入恶意软件,遭软件绑架或者取得装置的使用权,造成用户数据隐私公诸于网络世界的危机。
  • 热度 11
    2022-12-8 11:41
    1501 次阅读|
    0 个评论
    身处在「万物皆可连网」的物联网时代,网络资安(Cyber Security)早已成为企业营运上的必修课题。然而随着全球疫情彻底改变了人们的生活作息,连带使得视频会议、居家办公和远程教学等需求应运而生。工作与家庭之间的分界逐渐淡化,也让家用网络俨然成为黑客眼中的资安新破口。 家用路由器可能被散布僵尸病毒,居家资安不可不慎 据2022年初的新闻报导中指出,某知名大厂旗下共十余款家用路由器均受到俄罗斯黑客组织入侵,进而散布僵尸网络病毒。该厂商随后也紧急公告应对措施并赶工修复程式漏洞;但截至2022年3月中,大部分的感染装置还是没被修补成功。 2022年9月,僵尸网络再度锁定不同品牌的路由器,利用CVE-2015-2051、CVE-2018-6530、CVE-2022-26258、CVE-2022-28958等漏洞来入侵设备。这些漏洞多半可被用于RCE攻击,CVSS(通用漏洞评分系统)风险评分竟高达逼近10分满分的9.8至10分。 一旦家用路由器遭到黑客入侵,通常可分为两种状况: 一、成为僵尸网络的一员 僵尸网络(Botnet),是指电脑病毒、黑客或是木马程式侵入家中的连网设备,使得黑客得以透过远端控制的方式对家中的连网装置上下其手,并可随时轻松地发动分散式阻断服务攻击(DDoS)、进行窃取民众个资、瘫痪服务等恶意行为。 一旦成为僵尸网路的成员,黑客即可随时从远端发布指令,进行各种恶意攻击行为。 二、遭黑客组织利用,执行非法矿工 黑客可透过僵尸网络来远端控制用户家中的连网装置,进行比特币挖矿来获利。国内知名防毒软件公司就曾经报导,2018年时曾有超过20万台路由器遭挟持而进行挖矿。其作法主要是藉由Winbox中的安全漏洞,让攻击者以工具连到Winbox端口(8291)和要求存取系统使用者资料库档案。 为什么黑客会挑选择路由器作为攻击目标呢? 这是因为路由路必需长时间接电使用,且大多未具备「自动更新」机制,导致使用者并不会经常性、自发性地进行定期更新。在使用者容易轻忽的情况下,家由路由器在先天上就已具备资安漏洞的先天条件。再加上后疫情时代下的工作型态转变,居家办公的需求大幅提升,员工从家中连线至企业网络的机会和次数日与俱增。潜藏在居家网络下的重要个资、隐私与高含金量的数据资料,家中路由器自然而然便成为黑客眼中的待宰肥羊。 重点来了!要如何确保路由器的安全? 对于个人家中上网以及居家资安上的考量,百佳泰建议用户在日常使用上可针对以下几点多加留意: 1.更改预设的管理者帐号密码,并定期进行密码更新 通常在购入路由器时都会有预设的帐号密码,但预设的密码在组合上和强度上难免过于简单,就容易遭到恶意程式破解,试图登入装置。若您还在使用预设帐密进行连线,建议可趁早更换成强度更高、不易猜测的密码组合来进行有效防范。 2.设定好Wi-Fi密码 若路由器没有设定Wi-Fi密码,就容易成为可自由进出,门户大开的资安漏洞,为避免遭到恶意人士连线及盗用,建议可选择一些高强度的密码来进行设定。此外若非必要,尽可能避免使用公共Wi-Fi连网,也是有效减少装置遭恶意入侵的好方法。 3.选择安全性较高的Wi-Fi协定 设定好Wi-Fi密码之后,也别忘了替无线网络设定加密,建议可选择WPA2或WPA3等安全性较高的加密安全协定。 4.即时更新路由器 如先前所述,一般使用者并不会特地将需要长时间使用的路由器进行断电更新,因此建议民众有空还是要记得更新固件,藉此修复路由器的潜在漏洞,进一步防堵恶意程式侵入家中连网装置。 5.关闭特定功能 科技始终来自人性,风险则往往来自于惰性,一旦过度贪图方便就容易成为黑客的可趁之机。如可以被暴力破解的WPS功能以及随插即用的UPnP等特定功能都会是黑客侵入装置的管道之一。科技网站就曾于日前指出,总计共有超过10万台的路由器因UPnP功能漏洞而遭入侵,成为垃圾邮件僵尸网络的一部分,因此站在资安上的考量,若非必要,还是会建议用户记得将特定功能进行关闭。 6.时时监控连线到路由器的装置 当家用路由器中毒后,透过路由器连线的其他装置就极有可能接连陷入资安危机。因此会建议用户随时检查路由器是否有被未知的装置连线,一旦发生网速变慢且排除其他可能性的情况下,那么就很有可能是家中的路由器中毒了。
  • 热度 25
    2015-10-27 15:00
    4852 次阅读|
    4 个评论
    这个美女黑客名叫Julie Legault,来自MIT。   她发明了一个名叫Amino的装置,在众筹网站Indiegogo不到一周就被支持者刷爆了。 Amino可以让每一个普通人以非常简单的方式合成各种各样的细胞、DNA甚至是... 超级病菌。就像3D打印机可以让普通人按照自己的想法打印出各种各样的东西一样。   这台机器就是Amino,看起来各种试管什么的还是很高级的样子。   小白都能轻松掌握 不过你只要在手机上装个App,整个过程其实非常简单。   第一步:把所需要的 DNA 合成到一个细胞内。恩...比如自我修复的DNA或者可以变透明的DNA合成到某种细菌身上。 好吧,我承认科幻片看多了。 第二步:然后把制作出来的菌株放入左上角的液体培养基中开始培养,而Amino 会负责整个培养过程。 分裂吧,细胞君! 第三步:等自动培养完成后,主培养容器内就是你所设计出来的成品。   对于我们这些小白用户,直接使用 Amino 提供的材料,我们可以自己培养可以发光的大肠杆菌或者紫色的细菌。当然,对于专业人士来说,这是远远不够的。 Amino 虽然简单,但同样强大。 对于专业人士,它可以实时监控和调节培养过程中的温度、光密度及酸碱度,并能提供完善的数据分析。而且除了恒温培养,专业生物实验室采用的热浴和震荡方式都有。   这么说吧,只要你有本事,你爱怎么折腾都行。 便宜是硬道理 整套 Amino 套装的早鸟价格是499美元,到6月份发货的小规模量产型套装则是1099美元。这和专业实验室动辄几十万甚至上百万美元的设备来说,连个零头都不到。   还记得很多年前,硅谷著名的创客乔希·佩尔费托(Josh Perfetto)用一块 Arduino 开源板、一些加热线圈再加上培养容器就搞出了一个用于分析 DNA 突变的 PCR(聚合酶链式反应)设备,现在只卖到649美元。而一台传统的PCR热循环仪价格最低也要5000美元。 天使还是魔鬼? 科学技术是把双刃剑。 就像文章开头提到的那样,假如人人都能进行生物合成,那么随着更多人加入研究行列,治疗艾-滋-病的神-药可能会更快被研发出来,可以拯救无数生命。而另一方面,是否会有人拿来合成毒-品,甚至是足以毁灭全人类的丧尸病毒? 最后用一个小故事来结尾,也许可以证明为什么我们应当鼓励这样的产品,应当鼓励更多的爱好者直接加入到突破这一界限的尝试中来,而非仅仅依赖于数量有限的专业科研人员。 大家都知道乔布斯死于胰腺癌。   乔布斯死后的2012年,一个15岁的高中生杰克·安佐卡研究了一种新方法,可以把乔布斯2003年所经历的耗时14小时的传统检测方法降低到5分钟,检查费用从800美元降低到3美分,准确度则提升了400倍,从而使病人在癌症后期才能被确诊的5.5%存活机会变成早期检查后接近100%的治愈率。 你知道一个高中生是怎么研究的吗? 通过 Google 和维基百科,还有亚伦·斯沃茨(后来自杀了,大家自己百度这个人)入侵JSTOR后窃取并免费放在网上的学术论文。 当然,他还得做实验啊。 于是他给200位教授发邮件提出实验要求,一个月后他收到199份拒绝邮件,最终只有Anirban Maitra 博士对此表示出了兴趣。最后杰克·安佐卡因此而获得英特尔科学竞赛的戈登·摩尔大奖。   假如200人都拒绝他的实验要求呢?那么亚伦·斯沃茨用生命为代价窃取的免费论文也只能帮你到这儿了。 来源:极客视界
  • 热度 33
    2014-5-16 13:38
    1211 次阅读|
    0 个评论
    曾根据爱德华·斯诺登(Edward Snowden)提供的文件,曝光美国国家安全局(NSA)“棱镜门”的《卫报》记者格伦·格林沃尔德(Glenn Greenwald),在自己的新书中透露,NSA在美国供应商出口给国际客户的路由器、服务器等网络设备中,秘密植入“后门监控工具”,并重新包装、密封、运输、交付给海外用户。     当地时间本周一,英国当地报纸摘录了该书的部分内容——“NSA经常会收到或拦截美国厂商的路由器、服务器以及其他网络设备,这些设备从美国出口交付,将要交付给国际客户”,格林沃尔德写道,“NSA随后会在设备中植入‘后门监控工具’,重新打包并打上工厂的密封封条,继续运输,交付给客户。凭此,NSA获得了整个网络及所有用户信息的访问能力。”     目前,尚没有任何迹象表明美国公司对此做法知情。     美国网络设备制造商思科发言人表示:“我们此前已经声明,思科并未与任何政府机构合作,降低产品的安全性。我们对可能损坏产品完整性或客户网络的行为也密切关注。”     思科最大竞争对手Juniper Networks则拒绝对此置评。 NSA发言人指出,NSA及其他政府机构对美国科技行业产品高度依赖,并称这些设备最安全。     “由于政府也在使用同样的技术,美国政府与公众一样,会关注这些技术的安全性。我们无法对具体的情报收集等活动作出评论,不过,NSA对任何技术的关注和兴趣,都是因为外国的情报目标使用这些技术。美国政府在执行情报任务时,会小心确保使用相同技术的无辜用户不受影响。”     格林沃尔德表示,多年来,美国政府一直警告用户,购买来自华为等中国厂商的网络设备存在风险:因为潜在后门会被中国政府机构利用。但与此同时,NSA却给国际客户的设备中植入后门。     除了试图阻止间谍行为,“一个同样重要的动机在于,如果中国设备取代了美国制造的产品,将导致NSA监控范围受限。”     目前在美国政府机构和公司中,华为获得的订单寥寥无几,但是在其他地区却颇受欢迎。     华为对外事物副总裁比尔·普拉默(Bill Plummer)表示,公司并不了解美国或其他情报机构的动机。华为采用“动态、复杂的安全保障机制”,来识别并阻止潜在威胁,实力在170多个市场华为都得到了证明。“华为认为,自身解决方案的安全性拥有最高的优先级。”   本文摘自中国硅谷在线SINOSVO
相关资源