본문 바로가기

Hitachi

LG히다찌 주식회사

Hitachi Hyper Scale-Out Platform

Hitachi Hyper Scale-out Platform은 빅데이터의 수집 및 저장, 분석에 최적화된 데이터 레이크 하둡 기반의 하이퍼 컨버지드 플랫폼으로서 데이터 레이크 아키텍쳐 및 고속의 분산파일시스템을 통하여 복합 워크로드 환경에서 보다 빠른 분석을 가능하게 합니다.

HSP는 빅데이터 수집 및 분석 전용 솔루션인 Pentaho PDI, PBA와 연동하여 end-to-end 빅데이터 분석 환경을 제공합니다.

기능 및 특징

빅데이터 통합 분석 플랫폼

  • 하둡과 분석을 위한 별개의 인프라가 필요 없이 하나의 플랫폼에서 워크로드 분석
  • 기존 하둡의 HDFS 대비 뛰어난 성능 및 안정성을 제공하는 분산 네트워크 파일시스템
  • Hitachi 엔터프라이즈 POSIX 호환 파일 시스템
  • 사전에 구성 및 설치된 하이퍼 컨버지드 시스템을 통하여 가상 머신을 즉시 기동
  • 노드 또는 랙의 장애에 대비한 기반의 HA(High Availability) 시스템

하둡 그 이상의 빅데이터 어플라이언스

  • 데이터의 수집 및 저장(Pentaho Data Integration), 분석 및 시각화 솔루션(Pentaho Bigdata Analytics)과의 연동을 통한 end-to-end 빅데이터 환경 제공
  • 커널 기반의 VM 환경에서 어플리케이션들과 동작
  • Glance, NOVA, SWIFT API 등 OpenStack 호환 및 지원
  • 데이터 레이크의 생성 또는 하둡 기반의 분석과 전통적 POSIX 어플리케이션들을 모두 호스팅할 수 있는 엔터프라이즈 시스템

사양

사양
항목 사양
Per Node HSP 400
Form Factor (height) 2U rack
Processor Two Intel Xeon E5-2620 v3 2.4GHz 15M cache processors (E5v3)
Memory 192GB RAM, plus 8GB NVRAM
Hard disk drives (data) Twelve 3.5” 6TB SAS 7,200 RPM HDD (72TB raw)

문의

Adobe Reader
PDF 형식의 파일을 확인하시려면, Adobe Systems Incorporated(Adobe System社)의 Adobe® Reader®가 필요합니다.