Ngày 13 tháng 10 năm 2022 lúc 8:45 - 9:30
François Brémond là Giám đốc Nghiên cứu tại Inria Sophia Antipolis-Méditerranée, nơi ông đã thành lập đội STARS vào năm 2012. Ông đã đi tiên phong cho sự kết hợp trí tuệ nhân tạo, Học máy và Tầm nhìn máy tính để hiểu video từ năm 1993, cả tại Sophia-Antipolis và tại USC (Đại học Nam California), LA. Năm 1997 ông lấy bằng Tiến sĩ về hiểu biết video và theo đuổi công việc này tại USC về việc giải thích các video được lấy từ UAV (Xe không người lái). Vào năm 2000, được tuyển dụng làm một nhà nghiên cứu tại Inria, ông đã mô hình hành vi con người cho Scene Understanding: nhận thức, kết hợp đa cảm biến, lý luận tạm thời không gian và công nhận hoạt động. Ông là đồng sáng lập của Keeneo, Ekinnox và Neosensys, ba công ty trong lĩnh vực giám sát video thông minh và thông minh kinh doanh. Ông cũng đồng sáng lập đội CoBTek từ Đại học Nice vào tháng 1 năm 2012 với Giáo sư. P. P. Robert từ Bệnh viện Nice về nghiên cứu rối loạn hành vi cho người lớn tuổi bị mất trí. Ông là tác giả hoặc đồng tác giả của hơn 250 bài báo khoa học được xuất bản trên tạp chí hoặc hội nghị quốc tế trong hiểu biết video. Ông ấy đã (co)- giám sát 20 luận án Tiến sĩ.
Thông tin chi tiết có sẵn tại: http://www-sop.inria.fr/members/Francois.Bremond/
Trò chuyện: Công nhận Hành động Giám sát Người dân
Trong cuộc nói chuyện này, chúng tôi sẽ thảo luận về cách phân tích video có thể được áp dụng cho việc giám sát con người bằng cách nhập một luồng video. Công việc hiện có đã tập trung vào các hoạt động đơn giản trong các kịch bản thực tế, hoặc vào việc công nhận các hoạt động phức tạp hơn (về các biến đổi hình ảnh) trong các video được kẹp tay với giới hạn thời gian được xác định tốt. Chúng ta vẫn thiếu các phương pháp có thể lấy lại nhiều trường hợp của hoạt động phức tạp của con người trong một luồng dữ liệu liên tục (chưa giới hạn) trong các thiết lập thế giới thực. Do đó, trước tiên chúng tôi sẽ xem xét một số thuật toán nhận dạng/phát hiện hoạt động hiện có. Sau đó, chúng tôi sẽ trình bày một số kỹ thuật tiểu thuyết để nhận diện và phát hiện ADLs (Hoạt động của cuộc sống hàng ngày) từ máy ảnh video 2D. Chúng tôi sẽ minh họa các phương pháp giám sát hoạt động đề xuất thông qua một số tập dữ liệu ứng dụng chăm sóc gia đình: Toyota SmartHome, NTU-RGB+D, Charades và UCLA Tây Bắc. Chúng tôi sẽ kết thúc cuộc trò chuyện bằng cách trình bày một số kết quả trên các ứng dụng chăm sóc tại nhà.
Hẹn gặp các bạn tại Đảo Phú Quốc và MAPR2022 sẽ được phát trực tiếp trên fanpage UIT!
Mọi thông tin chi tiết xem tại: https://www.facebook.com/UIT.Fanpage/posts/pfbid02uUw6dxDw2QjQdAjHV3dEb4D4dWqiFodxdkgLGhodxwZg8B19TmLTaTnrRnx7mx4bl
Hạ Băng - Cộng tác viên Truyền thông trường Đại học Công nghệ Thông tin