丽台RTX AI 开发软件为整合AI项目分析所使用的套件及工具,并预装包含操作系统、GPU驱动程序、CUDA、深度学习函式库及多种深度学习/机器学习框架等开发环境。开机后即可立即启动各种研发项目开发工作,GPU工作站与服务器经过软硬件优化调整,免除繁琐的安装流程,适合AI项目及大数据项目开发使用。搭配GDMS管理系统,可更有效管理AI项目及监控系统资源。
系统经认证启动后,会自动安装操作系统、GPU驱动程序、CUDA Toolkit、cuDNN、NCCL、nvidia-docker套件及NVIDIA DCGM。可避免GPU及AI项目环境繁琐的安装及除错流程,让研发人员快速开启项目进行研发工作。
具有还原功能,即便系统出现任何问题,可透过还原机制回复至出厂设定之状态,减少系统检测及重新安装软件花费的时间。
Docker引擎为现今世界各地开发常见的平台之一,具有易安装、可携带性、易维护等特点。透过nvidia-docker插件,快速生成GPU开发环境,减少开发环境安装配置,避免造成系统负担、依赖库版本冲突等问题。
系统预加载11个常见的深度学习及机器学习框架,包含NVIDIA NGC优化后之多个AI开发框架。系统也提供框架测试页面,可方便快速验证开发环境。
可监控GPU核心和显存执行的健康状态,便可输出监控纪录至文档中,协助掌握GPU执行时使用的硬件资源及各项状态。
可做为GDMS接管GPU系统,透过GDMS更有效管理、分配及利用GPU资源,适合企业AI项目管理、智慧教室应用、研发团队开发。
支持最新深度学习及机器学习框架,简单指令即可启动AI开发项目环境。
规格 | 描述 | |
建议系统要求 | RTX AI 软体有以下最低之系统规格建议,最终效能取决于实际工作负载与硬体规格测试与评估。
|
|
RTX AI系統工具 | RTX AI Software操作模式 | RTX AI软体让软体工程师、资料科学家、AI专家可于本地端与远端操作工作站与伺服器:
|
框架诊断 (Framework Diagnostics) | 执行所选取的DL / ML框架并以测试数据模型运行,以验证其是否仍有效和具可运行性 | |
GPU监控与纪录 | 即时监控GPU和GPU记忆体的运行状况并记录日志,做为系统维护判读的参考 | |
GPU检测工具 | 内建之CUDA测试工具,用于测试容器中GPU的硬体状态 | |
Jupyter Notebook | 基于网页整合式的的交互式开发工具,可在Docker容器中编写或迭代程式码 | |
软体版本检视 | 通过预先定义使用之系统命令,查看每个当前软体版本的便捷工具 | |
支援GDMS伺服器 | 嵌入GDMS agent以提供支援系统管理员在GDMS伺服器上分配和管理GPU资源的作业。此功能仅与GDMS伺服器一起开发时才有效。 | |
系统一键还原 | 透过一键执行可将系统还原到出厂设定状态 | |
磁碟援救 | 当系统无法正常启动时,此工具将重建系统启始碟,以将系统还原为出厂设置状态 | |
RTX AI框架 | Chainer、TensorFlow、PyTorch、NVIDIA DIGITS、NVIDIA CUDA、NVIDIA Caffe、 NVIDIA MxNet、NVIDIA PyTorch、NVIDIA TensorFlow、NVIDIA TensorRT、NVIDIA TensorRT Server、NVIDIA RAPIDS | |
RTX AI基本组成 | Ubuntu Desktop OS v18.04 LTS、NVIDIA CUDA、NVIDIA cuDNN、NVIDIA NCCL、 NVIDIA Docker、Docker Engine、NVIDIA DCGM Fabric Manager 、NVIDIA Drivers | |
支援语言(使用者介面/键盘设定) | 英文与日文 (RTX AI系统工具仅支援英文) |