아래는 모든 변수를 랜덤포레스트모델에 학습하여 나올 성능입니다. 이전 포스팅에서는 50%가 약간 넘는 수치가 나왔었는데, 다시 학습시키니 수치가 약간 달라졌네요. 학습데이터를 랜덤샘플링 했기 때문으로 보입니다. feature importance가 높은 변수들만으로 다시 학습을 시켜보겠습니다. 아래 코드를 실행하면 top_feature변수에 상위 5개의 변수가 입력됩니다. top_feature = [] num=0 for f in range(x_train.shape[1]): top_feature.append(stock_df.columns[indices][f]) num = num+1 if num>5: break print(top_feature) 1250, 1530, 1100, 1520, 1430, 1200 순..