Как предсказать эмоции по лицевым ориентирам в Swift
Я могу получить данные о ориентирах лица из
VNFaceObservation
в этой функции
handleFaceDetectionObservations(observations: [VNFaceObservation])
как это,
private func handleFaceDetectionObservations(observations: [VNFaceObservation]) {
for observation in observations {
//FACE LANDMARKS
if let landmarks = observation.landmarks {
if let leftEye = landmarks.leftEye {
self.handleLandmark(leftEye, faceBoundingBox: faceRectConverted)
}
if let leftEyebrow = landmarks.leftEyebrow {
self.handleLandmark(leftEyebrow, faceBoundingBox: faceRectConverted)
}
if let rightEye = landmarks.rightEye {
self.handleLandmark(rightEye, faceBoundingBox: faceRectConverted)
}
if let rightEyebrow = landmarks.rightEyebrow {
self.handleLandmark(rightEyebrow, faceBoundingBox: faceRectConverted)
}
if let nose = landmarks.nose {
self.handleLandmark(nose, faceBoundingBox: faceRectConverted)
}
if let outerLips = landmarks.outerLips {
self.handleLandmark(outerLips, faceBoundingBox: faceRectConverted)
}
if let innerLips = landmarks.innerLips {
self.handleLandmark(innerLips, faceBoundingBox: faceRectConverted)
}
}
}
}
Итак, есть ли способ предсказать эмоции лица (например, улыбку, гнев) на основе вышеуказанных ориентиров?