• STM32全球在线峰会:揭示2024年嵌入式系统三大趋势

    ST于3月19日成功举办STM32全球在线峰会,不仅让业界了解到影响行业发展趋势的新技术,还与大家共同展望了2024年这些新技术将把产业带向何方。

    STM32

    意法半导体博客 . 2024-04-17 1 2625

  • 多深度神经网络的调度机制研究

      自动驾驶系统依赖于人工智能深度神经网络(deep neural networks, DNN)算法来执行感知、决策和控制等复杂任务。   近年来,针对于自动驾的深度神经网络算法的精度有了显著提高。然而,汽车在行驶过程中,除了要保证自动驾驶系统的输出和决策是准确的之外,其时机也必须是确定性的,因为即使准确但过晚的输出可能导致汽车撞上障碍物从而发生事故。因此准确性和实时性都是安全系统中需要考虑的关键

    深度神经网络

    TechSugar . 2023-01-30 1599

  • 【自适应计算在机器人领域的应用】连载一:什么是自适应机器人?

      作者: Víctor Mayoral-Vilches 和 Giulio Corradi,赛灵思公司   连载一:什么是自适应机器人?   机器人是一种系统级的系统,它由感知周边环境的传感器、根据感知采取行动的致动器和负责处理数据的计算构成,用于对其应用做出连贯一致的响应。在很大程度上机器人技术是一种系统集成的艺术,从软件的角度和硬件的角度看皆是如此。以往的研究揭示,在机器人领域中多达 70%

    神经网络

    厂商供稿 . 2021-11-11 1464

  • 首届RISC-V中国峰会即将举行 汇集最新技术和学术成果

    中国上海,2021年5月27日 – 首届RISC-V中国峰会(RISC-V World Conference China)将于6月21日在上海科技大学盛大开幕。本次峰会预计线下超过1000人、线上超过10000人参会,超过100家厂商进行演讲或参展,将会成为国内迄今为止规模最大的以RISC-V为主题的峰会。这也是RISC-V第一次在北美以外地区举办同等规模的峰会。其中主会将举办三天半(6月22日至

    NPU

    厂商供稿 . 2021-05-31 1330

  • Maxim Integrated宣布与Aizip达成合作,为业界提供最低功耗的IoT人形识别方案

    MAX78000 AI微控制器与Aizip的视觉唤醒词模型相结合,将人形检测引入IoT图像和视频应用,每次推算仅消耗0.7 mJ-------功耗降低100倍! 中国,北京 – 2021年4月22日 –Maxim Integrated Products, Inc (NASDAQ: MXIM)与专注于物联网(IoT)领域人工智能(AI)技术开发的Aizip公司达成合作,Maxim Integrate

    智能视觉

    厂商供稿 . 2021-04-25 965

  • 【书讯】非线性微分系统的控制算法及应用

    《非线性微分系统的控制算法及应用》 作者:张群力 著 出版日期:2020年10月 开本:16开 出版社:经济管理出版社 《非线性微分系统的控制算法及应用》阐述了近十几年来控制领域中控制器的设计和算法推导问题,包括非线性微分系统迭代学习控制、线性矩阵方程的迭代求解、非线性微分系统的脉冲控制及间歇控制、算子梯度法设计控制器等。 《非线性微分系统的控制算法及应用》中既注意算法推导的实用性,又注意理论分析

    算法

    中国经济学人官微 . 2021-02-26 460

  • 利用神经网络法实现对焦平面非均匀性校正进行改造设计

    红外焦平面探测是一种兼具辐射敏感和信号处理功能的新一代红外探测技术,但是由于制造过程和工作环境的影响,使得焦平面阵列(FPA)各个阵列元即使在相同的辐射通量照射下,也会输出不相同的响应电压。这种红外响应引起的遥感图像的失真被称作红外图像的非均匀性。为了提高观测频率、扫描范围和空间分辨率,航天遥感一般采用推扫式的多元敏感线阵列对地物成像,通过观察发现,推扫得到的遥感图像出现有规律的条带失真,条带宽度

    探测器

    电子设计应用 . 2021-01-12 710

  • 谷歌“升维打击”:还原任意角度光照立体效果,2D变“4D”

    贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 2D变3D,还不用建模,今年谷歌用NeRF做到了以假乱真的程度: 感觉就像是视频里截出来的是不是?神经网络只需要几张静态照片就能生成这样的结果。 但,总感觉离真实的场景还差点什么? 没错,缺的就是光影变换效果,NeRF只高度还原了空间,没有给人时间上的直观感受: 上面的结果,同样是用几张2D照片作为输入,但有实时光影效果的生成结果,更加

    谷歌

    量子位 . 2020-12-27 475

  • 张量计算在神经网络加速器中的实现形式

    引言 神经网络中涉及到大量的张量运算,比如卷积,矩阵乘法,向量点乘,求和等。神经网络加速器就是针对张量运算来设计的。一个神经网络加速器通常都包含一个张量计算阵列,以及数据收发控制,共同来完成诸如矩阵乘法,卷积等计算任务。运算灵活多变的特性和硬件的固定架构产生了矛盾,这个矛盾造成了利用硬件执行计算任务的算法多变性。不同的硬件架构实现相同的计算,可能具有不同的算法。我们今天讨论基于脉动阵列的计算架构,

    fpga

    AI加速微信公众号 . 2020-11-02 655

  • 科大讯飞将以技术进步来驱动AI的持续发展

      10月23日,在2020科大讯飞全球1024开发者节上,科大讯飞董事长刘庆峰就公司未来发展谈了自己的看法。   他说:“现在所有的发展都离不开核心技术的持续进步和推动,全球的技术竞争格局,也进一步倒逼在源头创新上做更好的布局,带着更大的梦想面向未来。”他进一步指出,科大讯飞未来会以技术进步来驱动AI的持续发展,具体包括算法突破重点、技术赋能数字和前瞻研究三个大方向。   其中算法突破重点方向主

    神经网络

    人工智能实验室 . 2020-10-30 1070

  • 如何评价现在的人工智能技术

      人工智能:现在的人工智能应用,简答来说就是“弱人工智能”也被称为,应用人工智能,它通常包含语言处理、视觉处理、语音识别等。   怎样评价现在的人工智能技术?   就好比一个人类出生有一段婴儿期,像目前人工智能智能就处于三到四岁的婴儿一样,他只能不断的深入学习。   谷歌(AlphaGo)以4比1的总比分获胜、第一个战胜围棋世界冠军 的人工智能机器人   主要工作原理是不断的“深度学习 “。”深

    神经网络

    拓世智能 . 2020-10-16 910

  • 机器学习模型:感知器的诞生及具体算法

    各位小伙伴们,又到了喜闻乐见的更新时间,最近猛料不断,先有Boston动力的“仁义”机器人反恐演习,紧接着MIT的狗狗们在实验室的绿茵场上集体卖萌,让我们感慨强人工智能离我们也许不远了。 作为快要秃头的我们,又该怎么看待这个快速变化的世界呢?在知识更新越来越快的现在,想要专注于当下似乎都变得艰难。其实柳猫想要告诉大家,作为一个普通人,对各种信息越是了解的多,认识的越是浅薄,为了增强自己的不可替代性

    神经网络

    itpub技术栈 . 2020-09-29 460

  • 面向未来的AI加速, ACAP可编程器件具有突破性意义

    作者:Mike Thompson,赛灵思 Virtex UltraScale+ FPGA 与 Versal Premium ACAP 高级产品线经理 AI 无处不在、随时在线和以数据为中心的时代,正催升对更高带宽的需求,而这已经超出了当今技术和产品尺寸的能力范畴,世界需要一种当前 CPU 和 GPU 技术所无法企及的更高效、更普及、普适的计算,自适应计算应运而生。 AI无处不在,随时在线和以数据为

    fpga

    Xilinx赛灵思官微 . 2020-09-28 1275

  • 我国首台基于自主知识产权类脑芯片的类脑计算机研制成功

    近日,浙江大学联合之江实验室,共同研制成功了我国首台基于自主知识产权类脑芯片的类脑计算机。 这台类脑计算机包含792颗浙江大学研制的达尔文2代类脑芯片,支持1.2亿脉冲神经元、近千亿神经突触,与小鼠大脑神经元数量规模相当,典型运行功耗只需要350~500瓦,同时它也是目前国际上神经元规模最大的类脑计算机。 与此同时,团队还研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统,实现对类脑计算机硬

    计算机

    中国科学报 . 2020-09-09 510

  • MCU如何在边缘和节点设计中实现AI功能

    AI:Artificial Intelligence,即人工智能。 AI与我们息息相关,手机导航、语音控制、智慧工厂、物流等这些都会运用AI相关技术。 随着人工智能的普及,很多使用MCU开发的产品也走向了AI的世界。AI设计主要参与方都是功能强大的CPU,GPU和FPGA等。MCU与强大的人工智能(AI)有什么关系? 随着AI从云到边缘的发展,使得这一观点正在迅速改变,AI计算引擎使MCU能够突破

    智能建筑

    玩转单片机 . 2020-08-19 1290

  • 研究人员研发新型基于人脑的算法,可帮助神经网络节省内存

    如今,人工智能的发展如火如荼,广泛应用到了图像、自然语言、人机对话等各个领域,对各个产业进行了变革。 在移动应用中,人工智能广泛使用的最大障碍之一是人工神经网络的学习活动需要消耗大量能量,而解决这一问题的一种方法可以从大脑中获得灵感。这是因为大脑具有超级计算能力,而且大脑神经元之间可以通过短的电脉冲或尖峰进行有效传输,极大节省了能量。 基于此思路,奥地利格拉茨工业大学的研究人员 Wolfgang

    人工智能

    钛媒体APP . 2020-08-17 825

  • FPGA中使用FP16格式的点积运算实例分析

    Achronix资深现场应用工程师,杨宇 神经网络架构中的核心之一就是卷积层,卷积的最基本操作就是点积。向量乘法的结果是向量的每个元素的总和相乘在一起,通常称之为点积。此向量乘法如下所示: 图1 点积操作 该总和S由每个矢量元素的总和相乘而成,因此S=a1b1+a2b2+a3b3+···anbn 本文讲述的是使用FP16格式的点积运算实例,展示了MLP72支持的数字类型和乘数的范围。 此设计实现了

    MLP

    Achronix . 2020-08-15 870

  • Glow神经网络编译器首次应用于MCU,面向边缘端机器学习

    恩智浦展示了应用于MCU的Glow神经网络编译器为基于视觉和语音的机器学习应用带来的诸多优势。恩智浦也是首家针对MCU实现相较于标准版Glow 2至3倍性能的半导体供应商 开源Glow编译器最初由Facebook开发,恩智浦现在将其集成到eIQ™机器学习软件开发环境中,为旗下i.MX RT系列跨界MCU提供高性能推理 恩智浦的Glow实施面向Arm® Cortex®-M内核和Cadence® Te

    恩智浦半导体

    厂商供稿 . 2020-08-05 965

  • Speech2Face模型主要是为了研究语音与相貌之间的关联性?

      你相信吗?AI人工智慧最近已经进化到,只要花6秒的时间,听到你的声音除可以分辨出你的性别、年纪与种族外,甚至可以描绘出你的长相。   这款由麻省理工学院(MIT)所打造出来的AI,研究人员用一个由数百万个影片剪辑而成的数据集,对一个名为Speech2Face的神经网络模型进行自我训练,而这款网络的运作大概分成两部分,一个是语音编码器,主要负责对输入的语音来进行分析,并预测出相关的脸部特征;另一

    AI

    OFweek人工智能网 . 2020-07-30 1090

  • Tsetlin机器和神经网络之间的功耗差别

    日前,英国纽卡斯尔大学的研究人员研发出一种非神经网络硬件,可以显著降低人工智能的功率消耗。 研发团队训练了一个神经网络,让它和另一项Tsetlin机器技术,分别从标准MNIST数据集识别手写数字。 纽卡斯尔大学高级讲师Rishad Shafik表示:“即开即用的神经网络让我们每焦耳可以进行不到10万亿次操作。而使用我们设计的第一台Tsetlin机器,这个数值能达到65万亿次。这种改进主要来自于简化

    机器

    OFweek人工智能网 . 2020-07-29 1000