Developing an object detector solution with Azure Custom Vision .NET SDKLuis Beltran
Azure Custom Vision is a cognitive service that lets you build, deploy, and improve image classifiers that adapt to your needs without a background in AI advanced techniques.
One of Custom Vision functionalities is Object Detection, which both identifies a target element in a picture and returns its location (coordinates) in the image. This is particularly useful in scenarios where there are several objects but only one of them is relevant.
In this presentation, the Custom Vision service will be described, with focus on how to deliver an object detection model by using the .NET SDK. This model can be accessed by applications either in online (by using the Prediction API) or offline modes (by exporting it to a platform, such as TensorFlow), and it will be demonstrated in a mobile application as well.
This presentation is from the TechMeet360 event held on August 6, 2016 at BizTalk360 office premises in Coimbatore. In this slide, BizTalk360's Technical Lead Senthil Kumar Palanisamy gives a brief introduction to Microsoft Azure Logic Apps and explains how to Automate Business Process across SaaS and On-Premises.
Developing an object detector solution with Azure Custom Vision .NET SDKLuis Beltran
Azure Custom Vision is a cognitive service that lets you build, deploy, and improve image classifiers that adapt to your needs without a background in AI advanced techniques.
One of Custom Vision functionalities is Object Detection, which both identifies a target element in a picture and returns its location (coordinates) in the image. This is particularly useful in scenarios where there are several objects but only one of them is relevant.
In this presentation, the Custom Vision service will be described, with focus on how to deliver an object detection model by using the .NET SDK. This model can be accessed by applications either in online (by using the Prediction API) or offline modes (by exporting it to a platform, such as TensorFlow), and it will be demonstrated in a mobile application as well.
This presentation is from the TechMeet360 event held on August 6, 2016 at BizTalk360 office premises in Coimbatore. In this slide, BizTalk360's Technical Lead Senthil Kumar Palanisamy gives a brief introduction to Microsoft Azure Logic Apps and explains how to Automate Business Process across SaaS and On-Premises.
Dynamics 365 - Introduction to Voice of the Customerandrewbibby
Slides for Andrew Bibby and Simon Whitson's presentation from CRMUG Summit EMEA 2017. Learn how to get started with Voice of the Customer in Dynamics 365 / CRM and best practices for designing surveys.
Simple REST-API overview for developers. An newer version is here: https://www.slideshare.net/patricksavalle/super-simple-introduction-to-restapis-2nd-version-127968966
This is a presentation I created to summarize the eBook/Guide found on this link for the University Students. It is a highly recommended guide for anybody looking to design real solutions in Microsoft Azure and what are the recommended steps they need to take.
이일민 / Epril
---
스프링5에 도입된 웹플럭스와 리액티브 함수형 프로그래밍 기술에 대한 여러가지 테스트 기술을 살펴보고 이를 효과적으로 개발에 적용하는 방법을 설명합니다.
- 리액티브 함수형 프로그래밍과 테스트
- 웹플럭스를 이용하는 웹 테스트
- 스프링5 애플리케이션의 테스트 전략
Using Spark Streaming and NiFi for the next generation of ETL in the enterpriseDataWorks Summit
On paper, combining Apache NiFi, Kafka, and Spark Streaming provides a compelling architecture option for building your next generation ETL data pipeline in near real time. What does this look like in enterprise production environment to deploy and operationalized?
The newer Spark Structured Streaming provides fast, scalable, fault-tolerant, end-to-end exactly-once stream processing with elegant code samples, but is that the whole story? This session will cover the Royal Bank of Canada’s (RBC) journey of moving away from traditional ETL batch processing with Teradata towards using the Hadoop ecosystem for ingesting data. One of the first systems to leverage this new approach was the Event Standardization Service (ESS). This service provides a centralized “client event” ingestion point for the bank’s internal systems through either a web service or text file daily batch feed. ESS allows down stream reporting applications and end users to query these centralized events.
We discuss the drivers and expected benefits of changing the existing event processing. In presenting the integrated solution, we will explore the key components of using NiFi, Kafka, and Spark, then share the good, the bad, and the ugly when trying to adopt these technologies into the enterprise. This session is targeted toward architects and other senior IT staff looking to continue their adoption of open source technology and modernize ingest/ETL processing. Attendees will take away lessons learned and experience in deploying these technologies to make their journey easier.
Speakers
Darryl Sutton, T4G, Principal Consultant
Kenneth Poon, RBC, Director, Data Engineering
These were prepared to teach the module "Emerging Technologies" for the 3rd year Undergraduates of the Asia Pacific Institue of Information Technology, Colombo-2, Sri Lanka (Remotely)
Introduction to Apache Kafka and Confluent... and why they matterconfluent
Milano Apache Kafka Meetup by Confluent (First Italian Kafka Meetup) on Wednesday, November 29th 2017.
Il talk introduce Apache Kafka (incluse le APIs Kafka Connect e Kafka Streams), Confluent (la società creata dai creatori di Kafka) e spiega perché Kafka è un'ottima e semplice soluzione per la gestione di stream di dati nel contesto di due delle principali forze trainanti e trend industriali: Internet of Things (IoT) e Microservices.
This presentation mentions about key concepts of Java side caching and things to consider. It also mentions about popular tools and caching in AWS and Google App Engine.
Event Mesh: The architecture layer that will power your digital transformationSAP Cloud Platform
Solace and SAP Presentation at Gartner Symposium on November 6, 2018
Crispin Clarke, SVP Europe, at Solace
Harsh Jegadeesan, Head of Product Management, Integration Platform, at SAP
Stateful, Stateless and Serverless - Running Apache Kafka® on Kubernetesconfluent
Speakers: Joe Beda, Co-founder and CTO, Heptio + Gwen Shapira, Principal Data Architect, Confluent
With the rapid adoption of microservices, there is a growing need for solutions to manage deployment, resources and data for fleets of microservices. Kubernetes is a resource management framework for containers that is rapidly growing in popularity. Apache Kafka is a streaming platform that makes data accessible to the edges of an organization. It's no wonder the question of running Kafka on Kubernetes keeps coming up!
In this online talk, Joe Beda, CTO of Heptio and co-creator of Kubernetes, and Gwen Shapira, principal data architect at Confluent and Kafka PMC member, will help you navigate through the hype, address frequently asked questions and deliver critical information to help you decide if running Kafka on Kubernetes is the right approach for your organization.
You will:
-Get an introduction to the basic concepts you need to know as you plan to deploy services on Kubernetes.
-Learn which parts of the Kafka ecosystem fit Kubernetes like a glove, and which require special attention.
-Pick up useful tips for getting started.
-See why Confluent Platform for Kubernetes is the simplest solution to deploying and orchestrating Kafka on Kubernetes, using container images and a Kubernetes operator.
Watch the recording: https://videos.confluent.io/watch/yoZcuazDjDDTcj1sRnaD3J?.
Modern machine learning systems may be very complex and may fall into many pitfalls. It's very easy to unintendedly introduce technical debt into such a complex structure. One of the approaches solving some of anti-patterns is a feature store. Feature store is a missing piece filling a gap between raw data and machine learning models. Not only it will help you to handle technical debt, but even more importantly speeds up time to develop new model.
Dynamics 365 - Introduction to Voice of the Customerandrewbibby
Slides for Andrew Bibby and Simon Whitson's presentation from CRMUG Summit EMEA 2017. Learn how to get started with Voice of the Customer in Dynamics 365 / CRM and best practices for designing surveys.
Simple REST-API overview for developers. An newer version is here: https://www.slideshare.net/patricksavalle/super-simple-introduction-to-restapis-2nd-version-127968966
This is a presentation I created to summarize the eBook/Guide found on this link for the University Students. It is a highly recommended guide for anybody looking to design real solutions in Microsoft Azure and what are the recommended steps they need to take.
이일민 / Epril
---
스프링5에 도입된 웹플럭스와 리액티브 함수형 프로그래밍 기술에 대한 여러가지 테스트 기술을 살펴보고 이를 효과적으로 개발에 적용하는 방법을 설명합니다.
- 리액티브 함수형 프로그래밍과 테스트
- 웹플럭스를 이용하는 웹 테스트
- 스프링5 애플리케이션의 테스트 전략
Using Spark Streaming and NiFi for the next generation of ETL in the enterpriseDataWorks Summit
On paper, combining Apache NiFi, Kafka, and Spark Streaming provides a compelling architecture option for building your next generation ETL data pipeline in near real time. What does this look like in enterprise production environment to deploy and operationalized?
The newer Spark Structured Streaming provides fast, scalable, fault-tolerant, end-to-end exactly-once stream processing with elegant code samples, but is that the whole story? This session will cover the Royal Bank of Canada’s (RBC) journey of moving away from traditional ETL batch processing with Teradata towards using the Hadoop ecosystem for ingesting data. One of the first systems to leverage this new approach was the Event Standardization Service (ESS). This service provides a centralized “client event” ingestion point for the bank’s internal systems through either a web service or text file daily batch feed. ESS allows down stream reporting applications and end users to query these centralized events.
We discuss the drivers and expected benefits of changing the existing event processing. In presenting the integrated solution, we will explore the key components of using NiFi, Kafka, and Spark, then share the good, the bad, and the ugly when trying to adopt these technologies into the enterprise. This session is targeted toward architects and other senior IT staff looking to continue their adoption of open source technology and modernize ingest/ETL processing. Attendees will take away lessons learned and experience in deploying these technologies to make their journey easier.
Speakers
Darryl Sutton, T4G, Principal Consultant
Kenneth Poon, RBC, Director, Data Engineering
These were prepared to teach the module "Emerging Technologies" for the 3rd year Undergraduates of the Asia Pacific Institue of Information Technology, Colombo-2, Sri Lanka (Remotely)
Introduction to Apache Kafka and Confluent... and why they matterconfluent
Milano Apache Kafka Meetup by Confluent (First Italian Kafka Meetup) on Wednesday, November 29th 2017.
Il talk introduce Apache Kafka (incluse le APIs Kafka Connect e Kafka Streams), Confluent (la società creata dai creatori di Kafka) e spiega perché Kafka è un'ottima e semplice soluzione per la gestione di stream di dati nel contesto di due delle principali forze trainanti e trend industriali: Internet of Things (IoT) e Microservices.
This presentation mentions about key concepts of Java side caching and things to consider. It also mentions about popular tools and caching in AWS and Google App Engine.
Event Mesh: The architecture layer that will power your digital transformationSAP Cloud Platform
Solace and SAP Presentation at Gartner Symposium on November 6, 2018
Crispin Clarke, SVP Europe, at Solace
Harsh Jegadeesan, Head of Product Management, Integration Platform, at SAP
Stateful, Stateless and Serverless - Running Apache Kafka® on Kubernetesconfluent
Speakers: Joe Beda, Co-founder and CTO, Heptio + Gwen Shapira, Principal Data Architect, Confluent
With the rapid adoption of microservices, there is a growing need for solutions to manage deployment, resources and data for fleets of microservices. Kubernetes is a resource management framework for containers that is rapidly growing in popularity. Apache Kafka is a streaming platform that makes data accessible to the edges of an organization. It's no wonder the question of running Kafka on Kubernetes keeps coming up!
In this online talk, Joe Beda, CTO of Heptio and co-creator of Kubernetes, and Gwen Shapira, principal data architect at Confluent and Kafka PMC member, will help you navigate through the hype, address frequently asked questions and deliver critical information to help you decide if running Kafka on Kubernetes is the right approach for your organization.
You will:
-Get an introduction to the basic concepts you need to know as you plan to deploy services on Kubernetes.
-Learn which parts of the Kafka ecosystem fit Kubernetes like a glove, and which require special attention.
-Pick up useful tips for getting started.
-See why Confluent Platform for Kubernetes is the simplest solution to deploying and orchestrating Kafka on Kubernetes, using container images and a Kubernetes operator.
Watch the recording: https://videos.confluent.io/watch/yoZcuazDjDDTcj1sRnaD3J?.
Modern machine learning systems may be very complex and may fall into many pitfalls. It's very easy to unintendedly introduce technical debt into such a complex structure. One of the approaches solving some of anti-patterns is a feature store. Feature store is a missing piece filling a gap between raw data and machine learning models. Not only it will help you to handle technical debt, but even more importantly speeds up time to develop new model.
Hướng dẫn Marketing với Thương mại khám phá 2023MarketingTrips
Tận dụng tối đa mọi khoảnh khắc bán hàng nhờ Thương mại khám phá trên Meta để thúc đẩy chiến dịch hoạt động hiệu quả hơn mà lại giảm bớt thao tác thủ công, đồng thời mang đến trải nghiệm phù hợp, hấp dẫn và liền mạch cho người đi mua hàng.
Truyền Thông Phượng Hoàng - Phoenix Mediahongnam247
Công ty cổ phần TM DV truyền thông Phượng Hoàng là công ty chuyên cung cấp các giải pháp về Social Wifi cho các thương hiệu, địa điểm trên cả nước. Với đội ngũ nhân viên trẻ và năng động, chúng tôi cam kết mang đến cho khách hàng chất lượng dịch vụ tốt nhất.
Facebook là một kênh được các nhà quảng cáo và nhiều doanh nghiệp lựa chọn để Marketing và bán hàng trực tiếp. Sau đợt cập nhập mới nhất từ Apple về chính sách bảo vệ quyền riêng tư của người dùng thì chúng ta cần phải cùng nhau giải rất nhiều bài toán để nắm bắt được sự ảnh hưởng và giải pháp ứng phó với sự thay đổi này.
Trong bài viết sau, Novaon Communitication sẽ chia sẻ chi tiết về sự ảnh hưởng thực sự của chính sách Apple và kinh nghiệm vận hành FacebookAds giúp vượt bão hiệu quả
Các digital marketer phải đối mặt với các thử thách mới
hằng ngày. SEMrush được thiết kế để giải quyết các nhu
cầu hằng ngày của team marketing nội bộ - chúng tôi hiểu
rõ những thử thách này như lòng bàn tay. Khám phá cách
mà sản phẩm của chúng tôi giúp đỡ bạn với những vấn đề
chính trong SEO, PPC, Content, PR và Mạng xã hội - từ đó
tiết kiệm thời gian cho những công việc sáng tạo hơn.
Đánh giá nhân viên (hay nhiều nhà quản lý quen dùng là đánh giá thành tích nhân viên, đánh giá kết quả thực hiện công việc) là một yếu tố quan trọng trong việc chi trả lương công bằng tại doanh nghiệp. Nhưng đánh giá như thế nào, với tiêu chí gì để đảm bảo hệ thống đánh giá đó là chuẩn mực và có hiệu quả thì không phải là điều đơn giản mà doanh nghiệp nào cũng có khả năng xây dựng. Với mỗi một doanh nghiệp khác nhau thì có những đặc thù công việc và quy mô hoạt động khác nhau. Do đó mà hệ thống đánh giá năng lực nhân viên tại mỗi doanh nghiệp sẽ áp dụng những yếu tố đánh giá khác nhau.
2. I. Phân tích hệ thống hiện tại
Hệ thống inside hiện tại của công ty
Tracking được: deviceId, userid với các sự kiện
- Complete register
- FirstLogin
- First charge
- Total charge
- …
Ưu điểm: Các sự kiện này chủ yếu là hậu kỳ khi người dùng đã cài đặt
app cũng góp phần khá lớn cho việc theo dõi các chỉ số của ứng dụng
Nhược điểm: Chưa đánh giá được hiệu quả của các chiến dịch quảng
cáo cụ thể bằng các con số, chỉ có đánh giá được qua dự đoán.
Dữ liệu từ các hệ thống quảng cáo
Các hệ thống quảng cáo đều có đầy đủ dữ liệu chi tiết về thông tin
3. Hệ thống có các báo cáo chi tiết đầy đủ về hiệu quả của từng chiến dịch và
từng quảng cáo cụ thể trong chiến dịch
Nhược điểm
- Do policy chung VTC Mobile không đẩy dữ liệu nạp tiền lên hệ thống
quảng cáo nên nó không đánh giá được hiệu quả về doanh thu của chiến
dịch.
- Các nhà cung cấp quảng cáo khác nhau nên việc theo dõi báo cáo phải
truy cập vào các hệ thống khác nhau và định nghĩa một số thông số cũng
khác nhau
- Ads network chỉ cung cấp các thông tin thống kê tổng hợp
4. II. Tìm hiểu hệ thống AppsFlyer
AppsFlyer là công ty dẫn đầu thị trường về phân tích và phân tích quảng
cáo trên thiết bị di động. AppsFlyer giúp các nhà tiếp thị xác định chính xác
mục tiêu của họ, tối ưu hóa chi tiêu quảng cáo và tăng ROI của họ. Dữ liệu
của bạn thúc đẩy tăng trưởng tiếp thị của bạn và cần một nền tảng dữ liệu
an toàn, đáng tin cậy và có thể mở rộng.
Tích hợp ứng dụng với Appsflyer
SDK của AppsFlyer rất nhẹ chỉ khoảng 40Kb, và nó có thể tracking với bất
kỳ mạng quảng cáo nào để nhận dữ liệu chuyển đổi và lượng tải xuống.
5. Tạo App và xem thông số dữ liệu
Với việc chỉ cần
khai báo địa chỉ
url Store của
ứng dụng,
Applyer có thể
lấy về đầy đủ
các thông số
của App mà
không cần khai
báo gì thêm.
6. Việc tracking dữ liệu từ quảng cáo của các ads
Install Referrer (Android only)
AppsFlyer sử dụng tham số tham chiếu Google Play cung cấp URL gốc được
nhấp trước khi chuyển hướng sang Google Play
Device ID Matching
Mạng quảng cáo có quyền truy cập thiết bị của người dùng, sẽ gửi
deviceId tới AppsFlyer sự kiện click url hoặc hiên thị quảng
cáo(impression). Điều này cho phép AppsFlyer ghép được deviceId click
quảng cáo với deviceId mà AppsFlyer thu thập được từ SDK
7. Device ID Matching for SRNs
Khi khởi chạy ứng dụng đầu tiên, AppsFlyer sẽ kiểm tra xem ứng dụng có
được định cấu hình để nhận lưu lượng truy cập từ một số mạng hay không,
được gọi là SRN (Self-Reporting Networks - Mạng tự báo cáo). Các mạng
này bao gồm Facebook, Snapchat, Google Ads, Twitter và một vài mạng
như vậy.
AppsFlyer truy vấn tất cả các SRN được định cấu hình cho ứng dụng, sử
dụng deviceId bị duy nhất của cài đặt mới. Điều đó được thực hiện thông
qua API MMP(Mobile Measurement Partner), mà SRN cho phép
AppsFlyer sử dụng. Dựa trên các câu trả lời được trả về, AppsFlyer có thể
quy người dùng mới cho SRN.
Fingerprinting
Fingerprint được thiết lập và lấy bằng cách thu thập các thông số khác
nhau về thiết bị. Thông tin dấu vân tay được thu thập đầu tiên tại thời
điểm nhấp chuột. Tại thời điểm khởi chạy ứng dụng, nó được thu thập lại
và thử kết hợp. Thông tin được truy xuất bao gồm các tham số liên quan
đến thiết bị như địa chỉ IP và phiên bản HĐH.
Fingerprint là một phương pháp khớp thống kê và không dựa trên một ID
duy nhất. Do đó, nó luôn mất các nhấp chuột với các phương thức khớp ID
hoặc giới thiệu, nếu chúng cũng xuất hiện trong cửa sổ nhìn lại.
8. Vì lý do tương tự, cửa sổ phân bổ cho fingerprinting ngắn hơn nhiều so với
các phương pháp khác. Tuy nhiên, AppsFlyer xác định cửa sổ phân bổ dấu
vân tay một cách linh hoạt, dựa trên loại mạng của người dùng và tính duy
nhất của địa chỉ IP.
API cho đối tác sử dụng dịch vụ: AppsFlyer cung cấp đầy đủ api và các
tham số hỗ trợ đối tác download các dữ liệu chi tiết phục vụ cho việc
thống kê dữ liệu
9. III. Xác định yêu cầu và xây dựng bài toán
Mục tiêu xây dựng hệ thống tracking quảng cáo VTC Mobile
Tracking được từ lúc tạo quảng cáo => lấy được chi các thông số
quảng cáo => đánh giá được hiệu quả quảng cáo
Compaign Adset AdId Instal
l
Register complete First update Level Up Buy Item …
Và một số thông tin theo dõi khác
1. Xây dựng thông qua làm đối tác với AppsFlyer
Ưu điểm: có nguồn dữ liệu đầy đủ để tích hợp vào inside tiếp tục các
bước thống kê. Công việc còn lại là gọi api get raw data của từng app
trên Appsflyer, map với dữ liệu đã có tại inside theo deviceid để tổng hợp.
App X(ios)
App X(android)
inside
AppsFlyer VTC Mobile
Nhược điểm: mất tiền
10. 2. Xây dựng hệ thống mới từ đầu
a. Các xem dữ liệu hiện tại
Từ các Ads Network (ex: facebook)
Chỉ xem được các thông tin hiệu quả quảng cáo qua số lượng click, install…
Từ Insight của VTC Mobile
11. Dữ liệu hệ thống đang tách bạch giữa ads network và dữ liệu mobile thu
thập, chỉ dựa vào con số và thời điểm để đo hiệu quả quảng cáo và chất
lượng user, nhưng nếu chạy nhiều quảng cáo cùng 1 lúc thì không thể
tách bạch và đo lường được hiệu quả của từng ad
b. Hướng xử lý
Do AppsFlyer và một số công ty như Adjust, App Annie là đối tác trực tiếp của các
Ads Netword như Google, Facebook, Twitter nên họ có thể pull api từ Ads Network
để lấy thông tin và cũng có thể được hỗ trợ push data trực tiếp từ các Ads Network.
Nên chỉ cần khai báo url app là họ có thể thu thập được dữ liệu.
Để trở thành partner của Facebook và Google cần đạt được một số
thành tích về lĩnh vực quảng cáo và xác minh một số thông tin, khá
khó khăn trong giai đoạn này.
Facebook: https://www.facebook.com/business/marketing-
partners/about/facebook-marketing-partner-requirements
Google: https://marketingplatform.google.com/about/partners/become-
a-partner/
12. Android: có thể thông qua Url Referrer mà google play truyền cho app lúc
cài đặt để lấy các tham số quảng cáo như adid, adsetid, campaign…
- SDK sẽ lưu các thông tin này vào config nào đó và cùng với để gọi tới api
checking của vtcmobile.
googleplay
App Install
VTC
Mobile
Inside
First Open
First Update
Register Compl
LevelUp
First Buy
…
Scoin
SDK
With compaignId,
adId
Lưu các
thông tin vào
config
13. IOS:
- Không lấy được các thông tin quảng cáo do App Store không truyền lại app các
giá trị này, dù rất nhiều dev đã gửi yêu cầu Apple nhưng họ vẫn quả quyết không
thực hiện do policy của họ
- Các Ads Network api hiện tại chỉ lấy được thống kê chi tiết không dùng được để
map dữ liệu thống kê về sau.
Cách xử lý hiện tại với IOS: App Mobile có cơ chế deep link, để khi mở app
từ trình duyệt vào app hoặc từ một app khác có thể vào đúng màn hình
mong muốn. Chúng ta có thể lợi dung cơ chế này để truyền tham số khi
quảng cáo app để thu thập thông tin về quảng cáo cung với deviceId lấy
được từ SDK để truyền lên API lưu trữ và phân tích.
Hướng dẫn cài đặt:
Facebook: https://developers.facebook.com/docs/app-ads/deep-linking/#os
Google: https://developers.google.com/analytics/solutions/mobile-campaign-deep-link
14. Todo:
1. Nâng cấp SDK lấy giá trị quảng cáo
- Android: lấy tham số truyền từ Store và deep link
- IOS: lấy qua deep link từ cấu hình trên ads network
- SDK lưu lại tham số quảng cáo để truyền lên server api với các app event
- Xây dựng App, up store với cả Android và IOS, chạy quảng cáo để thu thập dữ liệu thật
2. Back End
- Xây dựng DB
- Service Tổng hợp dữ liệu
3. Front End
- Cms gen deep link cho quảng cáo ios
- Api ghi nhận dữ liệu từ SDK
- Trang report
- Api log impression, click cho apk
15. 2. Giai đoạn đầu có thể map tay với thông tin chi tiết event từ ads network
3. Lấy thông tin tổng hợp từ ads network map với dữ liệu inside để tạo 1 báo cáo tổng thể.