인터뷰 리뷰1

면접 리뷰

  1. Off-policy vs On-policy

    Can Q-learning be used to derive a stochastic policy? - Artificial Intelligence Stack Exchange

    Off-policy의 대표적인 Q-Learning으로 확률적인 Policy를 학습할 수 있는가?

    ex) 확률적인 Policy: 가위바위보 -> 최적 Policy [1/3, 1/3, 1/3]

    답: 불가능, Q러닝은 주어진 state에 대해서 최적의 Q밸류를 학습하기 때문에 항상 Q값을 최대로 하는 action을 선택하게 됨.

    Softmax 같은 방법으로 확률 분포로 변형할 수 있지만 이것이 최적의 Policy라고는 할 수 없음


  1. 포트폴리오 구성에 있어서 머신 러닝이 어떻게 활용될수 있는가?

    포트폴리오 구성 과정

    1. 유니버스 선정

    2. 모델 포트폴리오 구성

    3. 실제 포트폴리오 구성

    4. 트레이딩

    5. 평가 및 조정


  1. input의 significance에 대해서 어떻게 설명할것인가?

    ChatGPT야 도와줘!

    머신러닝에서 input의 significance를 검정하는 방법은 다양합니다. 이러한 방법들은 모델의 특성과 데이터의 특성에 따라 선택될 수 있습니다. 몇 가지 주요한 방법을 살펴보겠습니다:

    1. Feature Importance(특성 중요도) 분석: 많은 머신러닝 알고리즘에서는 각 특성의 중요도를 제공합니다. 이를 통해 각 특성이 예측에 얼마나 중요한지를 확인할 수 있습니다. 예를 들어, 랜덤 포레스트나 그래디언트 부스팅 모델은 특성 중요도를 제공합니다.

    2. 가설 검정: 특정 특성이 예측에 유의미한 영향을 미치는지를 검정할 수 있습니다. 이를 위해 t-test, ANOVA 등의 통계적 가설 검정 방법을 사용할 수 있습니다. 이 방법은 특성과 목표 변수 간의 관계를 검증하는 데 유용합니다.

    3. 피쳐 선택(Feature Selection): 모델 학습 전에 특성 선택 알고리즘을 사용하여 가장 중요한 특성만을 선택할 수 있습니다. 이를 통해 모델의 복잡성을 줄이고, 예측 성능을 향상시킬 수 있습니다. 일반적으로, 순차적 특성 선택(Sequential Feature Selection)이나 L1 Regularization을 사용한 희소 모델을 통해 특성을 선택합니다.

    4. Permutation Importance(순열 중요도): 이 방법은 각 특성을 무작위로 섞어서 모델의 성능 변화를 관찰하는 것입니다. 특성이 중요할수록 이러한 섞음은 모델의 성능에 미치는 영향이 클 것입니다.

    5. Shapley Values(쉐플리 값): 이는 각 특성이 예측에 미치는 기여를 설명하는 방법입니다. 이 방법은 특히 복잡한 모델인 경우에 유용합니다.

    이러한 방법들을 함께 사용하여 특성의 significance를 평가하고, 모델의 해석 가능성을 향상시킬 수 있습니다. 그러나 주의할 점은 특성의 significance만을 고려하는 것이 아니라, 그것이 실제로 의미 있는지와 모델의 성능 향상에 기여하는지를 함께 고려해야 한다는 것입니다.