Đề tài: Thiết kế mô hình hệ thống và quản lý trang trại heo, HAY
Report_Template.docx
1. 1
ĐẠI HỌC BÁCH KHOA HÀ NỘI
TRƯỜNG ĐIỆN TỬ - VIỄN THÔNG
ĐỒ ÁN MÔN HỌC
NHẬP MÔN ĐTVT
Đề tài:
HỆ THỐNG TƯỚI TIÊU TỰ ĐỘNG
Sinh viên thực hiện: NGUYỄN VĂN THẮNG
Lớp KTĐTTT 07 – K61
Giảng viên hướng dẫn: PGS.TS. NGUYỄN XUÂN QUYỀN
PGS.TS TRẦN THỊ THANH HẢI
Hà Nội, 12-2022
3. 3
TRƯỜNG ĐIỆN TỬ - VIỄN THÔNG
ĐỒ ÁN MÔN HỌC
NHẬP MÔN ĐTVT
Đề tài:
HỆ THỐNG TƯỚI TIÊU TỰ ĐỘNG
Sinh viên thực hiện: NGUYỄN VĂN THẮNG
Lớp KTĐTTT 07 – K61
Giảng viên hướng dẫn: PGS.TS. NGUYỄN XUÂN QUYỀN
PGS.TS TRẦN THỊ THANH HẢI
Hà Nội, 12-2022
4. 4
PHẦN MỞ ĐẦU
Bài toán nhận dạng hoạt động người đã thu hút sự quan tâm nghiên cứu của các nhà
khoa học trong hơn 3 thập kỷ qua. Đây vẫn là một lĩnh vực nghiên cứu đầy tiềm năng
bởi nó mở ra nhiều ứng dụng trong theo dõi giám sát, tương tác người máy hoặc giải trí.
Trong đó, vấn đề nhận dạng cử chỉ tay người đóng một vai trò đặc biệt quan trọng trong
việc xây dựng những ứng dụng thực tiễn giúp ích cho đời sống con người (ví dụ như sử
dụng cử chỉ tay để điều khiển thiết bị gia dụng). Do vậy, cần thiết kế một mô hình có
thể phát hiện và nhận dạng cử chỉ tay tự động.
5. 5
CHƯƠNG 1. TỔNG QUAN
1.1 Giới thiệu chung về hệ thống tưới tiêu tự động
Hệ thống tưới tiêu tự động là gì ?
Nó có ứng dụng như thế nào trong thực tế ?
Hiện nay tưới tiêu đang được thực hiện thế nào ? Gặp bất cập gì ?
Hệ thống tưới tiêu tự động sẽ giải quyết được vấn đề gì ?
1.2 Mục tiêu của đồ án
1.3 Các nhiệm vụ cần thực hiện
1.3.1 Các nhiệm vụ
1.3.2 Bảng phân công công việc và đánh giá mức độ hoàn thành
6. 6
CHƯƠNG 2. PHÂN TÍCH VÀ THIẾT KẾ
2.1 Tìm hiểu nhu cầu người dùng
2.2 Đặc tả
2.2.1 Chức năng
2.2.2 Phi chức năng
2.3 Lập kế hoạch
2.4 Thiết kế khối
2.5 Lựa chọn phương án
7. 7
CHƯƠNG 3. MÔ PHỎNG VÀ TRIỂN KHAI
3.1 Công cụ mô phỏng và kết quả đạt được
3.1.1 Công cụ mô phỏng
3.1.2 Kết quả mô phỏng
3.2 Triển khai sản phẩm thực tế
3.3 Kiểm thử và đánh giá
8. 8
CHƯƠNG 4. KẾT LUẬN VÀ HƯỚNG PHÁT TRIỂN
4.1 Kết luận
4.2 Hướng phát triển
9. 9
TÀI LIỆU THAM KHẢO
[1] https://github.com/ultralytics/yolov5, last accessed at 14:57 on June 24, 2021.
[2] Qing Chen, El-Sawah A., Joslin C., et al. (2005). A dynamic gesture interface for
virtualenvironments based on hidden markov models. IEEE, 109–114, 109–114.
[3] Chen X. and Koskela M. (2013). Online RGB-D gesture recognition with extreme
learning machines. ACM Press, 467–474, 467–474.
[4] Doan H.-G., Vu H., and Tran T.-H. (2017). Dynamic hand gesture recognition from
cyclical hand pattern. IEEE, 97–100, 97–100.
[5] Burges C.J.C. (1998). A Tutorial on Support Vector Machines for Pattern
Recognition. Data Min Knowl Discov, 2(2), 121–167.
[6] Gkioxari G., Girshick R., and Malik J. (2015). Contextual Action Recognition with
R*CNN. IEEE, 1080–1088, 1080–1088.
[7] Cheron G., Laptev I., and Schmid C. (2015). P-CNN: Pose-Based CNN Features for
Action Recognition. IEEE, 3218–3226, 3218–3226.
[8] Simonyan K. and Zisserman A. Two-Stream Convolutional Networks for Action
Recognition in Videos. 9.
[9] Ji S., Xu W., Yang M., et al. (2013). 3D Convolutional Neural Networks for Human
Action Recognition. IEEE Trans Pattern Anal Mach Intell, 35(1), 221–231.
[10] Bishop C.M. (2006), Pattern recognition and machine learning, Springer, New
York.
[11] Becker S. and Lecun Y. (1989). Improving the convergence of back-propagation
learning with second-order methods. Proc 1988 Connect Models Summer Sch San
Mateo.
[12] Brox T., Bruhn A., Papenberg N., et al. (2004). High Accuracy Optical Flow
Estimation Based on a Theory for Warping. Computer Vision - ECCV 2004. Springer
Berlin Heidelberg, Berlin, Heidelberg, 25–36.
[13] https://github.com/AlexeyAB/darknet, last accessed at 22:35 on June 17, 2021.
[14]https://www.kaggle.com/phamdinhkhanh/convolutional-neural-network-p1, last
accessed at 15:31 on June 14, 2021.
[15] https://blog.roboflow.com/yolov5-improvements-and-evaluation/, last accessed
at 17:31 on June 18, 2021.