해당 포스트는 대표적인 프로젝트 방법론인 '애자일 방법론(Agile)'과 '폭포수 방법론(Waterfall)'에 대해 소개하는 글입니다. INTRO IT업계에서는 빠르게 변화하는 시장 환경에 적응하기 위해 개발 프로세스를 지속적으로 개선하고 있습니다. 이를 위해, 폭포수(Waterfall) 방법론과 애자일(Agile) 방법론이라는 두 가지 대표적인 방법론이 존재하며, 각 방법론은 개발 프로젝트의 특성에 따라 선택하여 적용됩니다. 아래에서는 두 방법론에 대한 설명과 글로벌 IT기업인 아마존(Amazon), 마이크로소프트(Microsoft), 애플(Apple)의 적용 사례를 소개합니다. 폭포수(Waterfall) vs. 애자일(Agile) 폭포수(Waterfall) 방법론 폭포수..
해당 포스트에서는 R에서 인공신경망(nnet)을 이용해 스팸 필터링 문제를 풀이하는 방법에 대해 설명합니다.INTRO스팸 필터링(Spam Filtering) 문제는 기본적으로 자연어 처리(NLP, Natural Language Processing)를 기반으로 하며, 텍스트 데이터가 숫자(임베딩)로 변환된 후에는 다양한 알고리즘 적용이 가능합니다.아래에서는 인공신경망(ANN)을 사용하여 스팸을 예측하는 분류 문제를 소개합니다. 풀이 절차는 nnet 패키지를 사용하여 모델을 구축하고, 내장된 스팸 데이터셋을 불러와 전처리 한 뒤, 적절한 노드 수를 찾아 모델을 적합시키고 결과를 분석합니다.[참고] 스팸 필터링(Spam Filtering)에 대한 이론적 이해가 필요하신 분은 아래 링크를 참고해 주세요.스팸 필..
해당 포스트에서는 메일(mail)이나 문자 서비스(sms)에 사용되는 스팸 필터링(Spam Filtering) 기술에 대해 소개합니다. INTRO 스팸 필터링(Spam Filtering)은 전통적인 텍스트 분석 문제 중 하나로, 일상에서는 스팸 메일 분류, 스미싱 문자 분류 등에 적용되어 쉽게 사용되고 있습니다. 이러한 서비스들에 '어떤 기술들이 활용'되고, '어떤 기준(방법)으로 처리'되는지에 대해 아래에서 자세히 설명합니다. [참고] 스팸 필터링(Spam Filtering)에 대한 이론이아닌 R코드가 궁금하신 분은 아래 링크를 참고해 주세요. [R] 인공신경망 활용 스팸 필터링 (Spam Filtering using neuralnet in R) 스팸 필터링(Spam Fil..
해당 포스트에서는 300보다 작은 모든 피보나치 숫자들을 찾는 방법을 소개합니다.참고로, 피보나치 수열(Fibonacci numbers)의 이론적인 설명은 아래 사이트에서 확인하실 수 있습니다.[R] 피보나치 수열 (Fibonacci numbers)[실습] 300보다 작은 모든 피보나치 숫자들을 찾아 나열하는 Python 코드를 찾으시오.아래는 Python으로 300보다 작은 모든 피보나치 숫자들을 찾아 나열하는 코드입니다.Python 코드# 초기 두 개의 피보나치 수를 리스트에 저장합니다.fib = [0, 1] # 마지막 항이 300보다 작을 때까지 반복합니다.while fib[-1] [0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233]코드 설명먼저, 초기 피보..
해당 포스트는 프로그래밍 공부를 위해 Project Euler에서 제공되는 알고리즘 문제를 다양한 접근으로 풀이한 글입니다.Problem문제번호 : 1제목 : 1000보다 작은 자연수 중에서 3 또는 5의 배수를 모두 더하면?설명 : 10보다 작은 자연수 중에서 3 또는 5의 배수는 3, 5, 6, 9 이고, 이것을 모두 더하면 23입니다. 1000보다 작은 자연수 중에서 3 또는 5의 배수를 모두 더하면 얼마일까요?Solution-1R Code# 1부터 1000까지의 수열을 생성합니다.x 코드 설명해당 문제는 1부터 1000까지의 자연수 중에서 3 또는 5의 배수의 모든 합을 구하는 것이 목적입니다. 다양한 풀이 방법이 있을 수 있으나 가장 짧은 코드 풀이를 아래에서 설명하도록 하겠습니다.먼저 1부터 ..
해당 포스트에서는 손실 함수(loss function)을 최적화하는 경사하강법들을 비교하여 설명합니다. INTRO SGD(Stochastic gradient descent), Batch, mini-Batch는 모두 경사하강법(Gradient Descent) 방식의 일종으로, 손실 함수(loss function)를 최적화하는 과정에서 가중치(weight)를 갱신(update)하는 방법입니다. 아래에서는 먼저 각 방법론을 설명한 후, 세 방법론들을 비교하여 차이를 설명합니다. 경사하강법(Gradient Descent)? 경사 하강법(Gradient Descent)은 기계 학습 및 최적화에서 가장 일반적으로 사용되는 최적화 알고리즘 중 하나입니다. 함수의 기울기(gradient)를 이용하여 함수의 최솟값을 찾..
해당 포스트에서는 피보나치 수열(Fibonacci numbers)에 대해 소개하고, 실습으로 300보다 작은 모든 피보나치 숫자들을 찾는 방법을 소개합니다.참고로, Python 코드는 아래 사이트에서 확인하실 수 있습니다.[Python] 피보나치 수열 (Fibonacci numbers)피보나치 수열(Fibonacci numbers)?피보나치 수열은 각 항이 바로 앞 두 항의 합과 같은 수열입니다. 즉, 0과 1로 시작하고, 그 다음 항부터는 바로 앞의 두 항을 더한 값으로 이루어진 수열입니다.예를 들어, 피보나치 수열의 처음 몇 항은 다음과 같습니다. 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181, 67..
해당 포스트는 제이펍에서 출간한 '그림으로 배우는 StatQuest 머신러닝 강의'를 읽고 작성한 서평입니다. INTRO StatQuest 유튜브 채널을 운영하고 있는 Josh Starmer는 머신러닝에 필요한 개념들을 그림과 함께 알기 쉽게 설명하는 것으로 유명합니다. 컴퓨터 공학 입문자 분들에게 자칫 어려울 수 있는 통계 및 머신러닝 용어들을 그림과 함께 만화책을 보듯 이해할 수 있으며, 간략하지만 때로는 깊이 있는 내용을 다루기에 현직 데이터 과학자 분들에게도 도움이되는 책이라고 생각됩니다. 아래에서 책에 대한 간략한 소개와 제의 서평을 정리하였으니 책 선택에 도움이 되셨으면 좋겠습니다. 책 소개 지금까지 이보다 더 시각적이고 직관적인 머신러닝 강의는 없었다 머신러닝은 놀랍고 강력한 ..
이번 포스트는 2023년 데이터 분석 전문가(ADP) 및 준전문가(ADsP) 시험 일정을 공유합니다. 실기 기출 문제 정리 데이터분석전문가(ADP) 실기시험 기출문제 조사 - 1. 통계 분석 데이터분석전문가(ADP) 실기시험 기출문제 조사 - 2. 데이터 마이닝 & 기계 학습 데이터분석전문가(ADP) 실기시험 기출문제 조사 - 3. 텍스트 마이닝 2023년 ADP/ADsP 시험 일정 2023년 데이터 분석 전문가/준전문가 시험 일정 및 기출 자료를 공유 드립니다. 데이터 분석 자격증(ADP)는 2021년 2,436명이 응시하여 최종 66명이 합격한 난이도 있는 시험입니다. (합격률 2.71%) 어려운 시험인만큼 외부의 시선도 높아지면 좋겠지만, 현실적으로 면접관 입장에서는 해당 자격증으로 판단하기 어려운..
해당 포스트에서는 RStudio 시작 시, 작업 환경이 자동 복구되는 기능을 옵션에서 조정하는 방법을 설명합니다.INTRORStudio에서는 작업 환경의 연속성을 위해, 기본적으로 작업 종료 시 환경을 저장하고, 다음 작업에서는 이전 환경을 자동으로 불러올 수 있게 기능이 제공되고 있습니다. 하지만 작업 연속성이 필요없거나 이전 작업의 불필요한 메모리 사용이 있었다면 이러 기능은 일반 사용자 분들에게는 오히려 불편하게 다가올 수 있습니다.아래에서는 RStudio 작업 환경 자동 복구 기능을 끄거나 키는 방법에 대해 설명합니다. 질문 Rstudio를 사용하고 껐다가 다음날 키면 전에 썼던 내용이 그대로 뜨는 이유는 뭔가요?? 어떻게 하면 다음날 켜도 전에 했던 것들이 안뜨나요?? 답변RStudio는 실행 ..