기계학습이 있어야 진정한 인공지능이라고 부를 있다.

(퀀텀 컴퓨터가 사용되는 순간 이를 막을 세상의 일반 컴퓨터의 보안은 와해되게 된다.) 


[2014. 인공지능이 향상된 3 가지 이유]

1. 저렴한 병렬 컴퓨팅

2. 데이타

3. 향상된 앨거리듬

  신경망 (neural network) 1950년대에 발명되었지만 수백만, 개의 뉴런들의 상호 연관성을 다루는 방법을 찾기까지 수십 년이 소요되었다. 얼굴인식을 예로 들자면, 사진이 들어 오고 영상이 신경망에 패턴을 보일 결과는 다른 레벨로 옮겨져서 추가의 분석을 거치게 된다. 레벨에서는 개를 묶어서 정보를 다음 레벨로 보낼 있다. 레벨에서는 이를 코와 묶어서 고려할 있다. 사람의 얼굴을 인식하려면 이런 노드 수백만개가 각각 주변의 다른 노드에 계산이 끝난 정보를 전달하는 것을 15 단계의 레벨에 걸쳐 처리해야 할지도 모른다.

2006년에 토론토대학교의 Geoff Hinton(제프 힌튼) 방식에 한가지 매우 중요한 방법을 추가했는데 이를 러닝 (deep learning 심화 학습) 이라고 부른다힌튼은 레벨에서 얻은 결과물을 수학적으로 최적화 (optimize) 시켰고, 이렇게 단계를 거쳐 올라가면서 학습이 빨리 되도록 만들었다.

방식의 러닝 앨거리듬은 GPU (Graphics Processor Unit) 옮겨져 돌리게 되면서 엄청난 속도 개선이 되게 되었다. 러닝 코드 자체만으로는 복잡한 논리적인 생각을 하는데 부족하지만 현재 IBM, 구글, 페이스북 등에서 사용하는 AI들은 모두 러닝을 기본 핵심 방식으로 채택하고 있다


[구인광고를 통한 요구사항 파악]

 

인텔 - experience with at least one of the following tools: Caffe, Torch, TensorFlow, Theano, or similar. Good understanding of CNNs, RNNs, reinforcement learning, supervised and unsupervised learning.

AMD 

·         Experience working with deep learning frameworks like Caffe, TensorFlow and Torch

·         Strong mathematical foundation in Tensors, Convolutions, Linear Algebra, Numerical Mathematics, & Statistics

·         Strong programming skills in C, C++, Perl, or Python

·         Familiarity with GPU computing (CUDA, OpenCL) and HPC (MPI, OpenMP)

·         Strong background in computer architecture

·         Track record of optimizing code for performance on CPUs or GPUs, including assembly or SIMD programming

Amazon 

·         Hands on experience in building DNN, CNN, LSTM model and using commercial framework like TensorFlow/Caffe

Tesla 

·         data visualization

·         SQL, R, and Python

·         applied statistics including predictive modeling, Bayesian statistics, Time Series analysis and Machine Learning

·         Java, Tableau, Hive, Spark, MongoDB

Panasonic 

·         deep-learning frameworks, such as Caffe, TensorFlow, Theano, Torch/PyTorch

·         Python and C++, CUDA

 

기본적으로 Caffe, TensorFlow, Torch 가지를 언급하고 있다.

  • Caffe - http://caffe.berkeleyvision.org/ 버클리의 것이다. 만든사람인 Yangqing Jia 현재 페이스북에 있다. 전엔 구글에서 텐서플로우 작업도 했다. 페북 지금 Caffe2 밀고 있다.

  • TensorFlow - 구글. ARM, ebay, Intel, Qualcomm, Kakao, Twitter, Uber, Dropbox, Airbnb, ...

  • Torch - NVIDIA . (테슬라가 사용하는지? 확인 필요.)

 

IBM 애플, 아마존, 마이크로소프트등은 언급도 안된다.

Comparison of deep learning software - 차트로 정리되어 있음.



[인공지능 적용분야]

  • 비지니스 분석
  • 번역, 통역
  • 음성 인식
  • 얼굴 인식
  • 의료 영상 판독
  • 유전학, 에너지, 환경, 기후 등에서 나오는 막대한 데이타 분석
  • 질병 연구
  • 게임 - 바둑, ... 데이타를 통한 학습 자가 학습. 자가학습의 예로는 블락 깨기가 있었음.
  • 소프트웨어 테스팅
  • 디지털 퍼스널 어시스턴트 - Siri, Alexa
  • 고객 서비스 - Cogito
  • 여행, 관광 - Boxever
  • 판매 - 아마존 (언제 고객이 상품을 필요로 예측), 넷플릭스, 판도라,
  • 실내 관리 - Nest (온도, ...)
  • 기후 예측
  • Vision, perception, control, planning algorithm development

 



[다음 할 일들]

1. 머신 러닝의 핵심 개념들

2. 머신 러닝 팩키지 해부


Posted by OneSpin
구글번역기는 통계학적 기계번역 (Statistical Machine Translation) 이라는 방식을 사용하며, 이중언어 사용자들을 직접용하지는 않는다. UN이 전문번역인들을 사용해 번역한 문서나 혹은 기존에 번역된 책, 문서들을 분석해 스스로 번역능력을 증진시키는 방법을 택하고 있다. 이 방식은 이미 존재하는 번역대본의 양과 질에 의해 번역능력이 결정된다. 번역된 자료의 양이나 질을 향상시키기 위해 툴킷 (GT Toolkit) 사용 및 번역메모리 (Translation Memory) 의 업로드를 유도/권장하고 있다. 



번역메모리는 TMX (Translation Memory eXchange (.tmx)) 버젼 1.0 이상과 호환되는 파일 포맷이어야 한다. XML 포맷인데 이를 맞추어 올리는 일반인이 몇이나 있을지? 통계적인 방법을 사용하는 이상, 번역의 제공, 수정에도 cloud sourcing 을 쉽게 도입하는 것이 필요하 것 같다. (구글은 이를 위해 평가(rating)제도도 도입하고 있긴 하다. http://translate.google.com/toolkit/TOS.html?hl=en 참조.) 좋은 자료가 아니라면 물론 역효과가 날 수도 있을 것이다. 

이런 것 보다 더 중요한 것은, 번역된 자료가 결과 언어로 읽었을 때 무난한 것인가 하는 것이다. 평가제도도 좋긴 하지만, 번역결과를 해당 언어 문서들에서 비교하여 적절한 표현들이 사용되었는지 재검토하는 절차가 필요하지 않는가 생각이 된다. 예를 들어 "pay for college"라는 부분을 구글번역기는 "대학에 대해 지불합니다"라고 번역하고 있다. 한글문서들을 찾아 보면 이런 표현이 쓰인 예가 없다는 것을 쉽게 알 수 있을 것이다. "pay for college" 가 "pay for shoes"처럼 "??을 산다"라는 경우가 아니므로 이 경우는 "대학 학비를 낸다" "대학 등록비를 댄다" 등의 표현에 일치한다고 보아야 한다. 이런 부분을 한글 문서를 통계적으로 분석하고 자료를 대비함으로써 알아 낼 수 있어야 한다고 생각된다. 그리고, 이런 오류를 쉽게 발견하고 수정하여 번역의 질을 높이려면 당연히 대중의 힘을 빌려야 한다. 

Posted by OneSpin







AI (인공지능)과 분석 소프트웨어를 접목시켜 "질문대답"에 최적화한 컴퓨터. 80 테라플롭 (teraflops. trillion floating point operations per second)의 성능. (현재는 1 petaflop이 수퍼컴퓨터로서 가장 빠른 기록. 80 테라플롭은 2004~2005년 수준.) 인간의 답변능력을 매치하거나 능가하기 위해 90개의 서버에 총합 200 밀리온 페이지 이상의 정보를 다루고 있음. 6백만 개의 로직 규칙에 따라 처리함. 기재들은 약 10개의 냉장고에 해당하는 공간을 차지.

왓슨의 핵심 구성요소
  • Apache UIMA (Unstructured Information Management Architecture) frameworksinfrastructure and other elements required for the analysis of unstructured data.
    구조가 없는 정보분석을 위한 아파치 UIMA 등.
  • Apache's Hadoop, a free, Java-based programming framework that supports the processing of large data sets in a distributed computing environment.
    아파치의 해둡 (Hadoop. 분산형 컴퓨팅 환경에서 대형 데이타 처리를 위한 구조. 자바 프로그래밍 환경으로 무료로 제공됨.)
  • SUSE Enterprise Linux Server 11, the fastest available Power7 processor operating system.
    Power7 프로세서용 OS로는 가장 강력한 SUSE 기업형 리눅스 서버 11.
  • 2,880 processor cores
  • 15 terabytes of RAM
  • 500 gigabytes of preprocessed information.
    사전 처리된 500 기가바이트의 정보.
  • IBM's DeepQA software, which is designed for information retrieval that incorporates natural language processing and machine learning
    IBM이 만든 DeepQA 소프트웨어. 자연언어 처리 및 기계학습을 결합한 정보 색출 프로그램임.

왓슨을 사용한 응용분야로는 의료분야(healthcare)와 decision support가 거론되었음. 인터넷 검색기로서의 기능은 타의 추종을 불허. (구글이 겁내야 하는 부분이라고 생각됨. 물론 이 정도의 정보처리기술을 대중에게 제공하려면 막대한 투자가 필요하고, 그 이전에 또 준비해야 하는 DeepQA 같은 프로그램의 개발 및 정보 사전 준비가 엄청날 것이므로 쉽지는 않을 문제. 기계학습이 상당부분 이를 도와줄 수 있을 것으로 사료됨.) 

"In the practice round, Watson demonstrated a human-like ability for complex wordplay, correctly responding, for example, to “Classic candy bar that’s a female Supreme Court justice” with “What is Baby Ruth Ginsburg?” Rutter noted that although the retrieval of information is “trivial” for Watson and difficult for a human, the human is still better at the complex task of comprehension. Nevertheless, machine learning allows Watson to examine its mistakes against the correct answers to see where it erred and so inform future responses. "
"캔디 바이면서 대법원 법관인 여성은?" 이란 질문을 왓슨이 제대로 알아 듣고 "What is Baby Ruth Ginsburg?”라고 답변했음. (Baby Ruth 와 Ruth Ginsburg 의 두 답변을 캐치한 후 결합시켜야 하는 문제.) 제퍼디 출전자 러터 (Rutter)는 왓슨이 정보를 찾아 오는 것에는 강하지만 복잡한 것을 이해하는 능력은 인간이 더 앞서 있다고 논평함. 하지만 왓슨은 기계학습을 통해 틀린 답을 맞는 답과 비교해서 향후에는 맞는 답으로 답변할 수 있어서 유리함. 



비디오 분석학에서는 과일, 채소를 카메라로 인지해서 가격을 알려주는 베지 비젼 (Veggie Vision)이란 연구과제가 있다. 이 연구는 의약품을 카메라로 인지해 약품 정보를 알려주는데에도 응용될 수 있다. 




컴퓨터가 잘 못 푸는 분야에 sarcasm, pregnant pause, 은유법, 반어법 등이 있다네요.

'기술, 과학' 카테고리의 다른 글

구글 번역기의 내부  (0) 2011.02.17
Posted by OneSpin
이전버튼 1 이전버튼