매직 넘버 7, +/- 2 (밀러의 법칙)
흔히들 이야기하는 '마법의 숫자 7' 이라는 법칙의 발견자는 심리학자 조지 아미티지 밀러(George Armitage Miller, 1920년 2월 3일 ~ 2012년 7월 22일)라고 합니다.(일주일, 북극성, 백설공주의 7 난쟁이 등) 인지 심리학의 선구자 인 조지 아미티지 밀러의 연구에 의해 발견된 이 법칙은, 인간의 단기기억 용량이 7+/-2 이라고 주장합니다. (연구제목: 정보를 처리하는 우리의 능력에 대한 몇가지 제한, 1956, 조지 A. 밀러) 이 연구가 1950년도에 이루어진 것이고 신빙성에 대해 많은 이야기들이 있었지만, 이후 지속적으로 다양한 분야에 적용되어 많은 효과가 있다고 평가되고 있다. 프로그램 분야에서는 UI/UX가 중요해 지면서, 사용자들에게 수용성, 편의성 등을 제공하는 ..
2024. 1. 31.
MSA(MicroService Architecture) 관련 책들 소개, 그리고 SW개발자
당연하겠지만 'SW개발'이라는 직업은 오랜동안 개발자들을 울고 웃게 해왔습니다. 특히나 취미가 아닌 직업으로서의 SW개발은 사실 그리 만만하게 볼 일이 아닙니다. 최근 다양한 오픈소스, 개발을 직접적으로 도와주는 프레임워크, 성능 좋은 개발 언어와 툴 등이 등장하여 마치, SW개발이란 것이 아주 쉽고 재미있는 것으로만 여겨지는 부작용도 있지만, 실제 직업으로서 회사 개발조직에 소속되어 SW개발을 한다는 것은 여전히 어렵고 힘든 일입니다. 이런 SW개발자들에게는 숙명처럼, 새로운 기술 트렌드에 대한 학습이라는 숙제가 따라 다닙니다. 나이, 직급, 도메인, 역할 등과 관계없이 항상 학습해야 하고 이를 개발업무에 적용해야 합니다. 소개된지는 어느정도 시간이 지났지만, 최근에 다시 유행을 타고 있는 것들, 오늘..
2023. 11. 26.
메타가 개발한 대규모 언어 모델, ‘라마 2’란 무엇인가?
ChatGPT가 촉발한 LLM의 전성시대에, 가장 주목받고 있는 라마 2에 대해 알아보자. 인공신경망 알고리즘은 크게, 합성곱 신경망(CNN), 순환 신경망(RNN), 트랜스포머(Transformer - 2017, 구글 논문 "Attention is all you need" 모델) 로 구분 - Transformer : Self-Attention 방식을 사용하는 모델로 문장 전체를 병렬구조로 번역할 뿐만 아니라, 멀리 있는 단어까지도 연관성을 만들어 유사성을 높였으며, RNN 한계를 극복 ‘라마 2(Llama 2)’는 페이스북 모회사 메타의 AI 그룹이 개발한 대규모 언어 모델(LLM)이다. 매개변수 규모에 따라 70억 개, 130억 개, 700억 개의 매개변수로 사전 학습 및 미세 조정된 3가지 모델이 ..
2023. 9. 20.