잘 아는 것은 아니지만 빅 데이터가 뭔가 생각해보면…빅 데이터라고 할 때 데이터를 분석하는 방법 자체는 다 기존의 통계, 머신 러닝, IR에서 왔다고 할 수 있을 것이고, 이제 그 분석 방법을 어떻게 구현하는가 하는 것이 이제 빅 데이터의 고유한 특성이라고 할 수 있지 않을까 싶다. 테라바이트 단위의 데이터를 신뢰롭게 분석하자면 당연히 기존의 구현 방법으로는 어려운 경우가 많을 것이고. 아 물론 이것도 데이터베이스 시스템이나 병렬 분산 컴퓨팅 등에서 많이 고민해왔던 문제겠지만 어쨌든 빅 데이터의 시작은 MapReduce 아닌가? (당당)