WSL 2
Tinh chỉnh XGBoost với Learning Curves
Hi các bạn, lại là mình đây, hôm nay mình sẽ cùng các bạn tìm hiểu thuật toán tối ưu hóa AdaBelief. Thuật toán này được sử dụng để thay cho thuật toán Adam optimizer mà các bạn hiện đang xài để huấn luyện mô hình Deep learning. Nào, chúng ta cùng bắt đầu tìm hiểu nhé.
Trong khi trong các phương pháp lý thuyết trò chơi nói chung, ví dụ thuật toán min-max, thuật toán luôn giả định chúng ta có một đối thủ hoàn hảo, công việc phải thực hiện là tối đa hóa phần thưởng của mình và giảm thiểu phần thưởng của đối thủ ( tối đa hóa điểm của mình và tối thiểu hóa điểm của đối thủ), trong học củng cố, chúng ta không cần giả định đối thủ của chúng ta là 1 thiên tài xuất chúng, nhưng chung ta vẫn thu được mô hình với kết quả rất tốt.
Xếp gạch là một trong những game được các bạn thế hệ 8x, 9x đời đầu phá đảo. Bây giờ chúng ta thử code lại nó với opencv và Python nhé. (optional)
Khi làm việc với opencv, chúng ta bắt gặp rất nhiều thuật toán cần phải xét ngưỡng. Vậy giá trị ngưỡng là gì. Ở bài viết này, chúng ta sẽ tìm hiểu và làm rõ nội dung trên nhé
Việc huấn luyên mô hình máy học có thể sẽ gây ra cho bạn một chút khó khăn nếu bạn không hiểu những thứ bạn dang làm là đúng hay sai. Trong hầu hết các trường hợp, các mô hình học máy là các "hộp đen"
Thuật toán Simhash
Trong bài viết này, mình sẽ đề cập đến các thuật toán hash có sẵn trong python
Bài viết này được mình tham khảo chính từ bài viết của tác giả Sambasivarao. K và bài báo có tên là Improving Object Detection With One Line of Code năm 2017 của nhóm tác giả Navaneeth Bodla.