Android Mobile Vision API检测口是开放的

问题描述 投票:2回答:5

我正在探索精彩的移动视觉apis,我正在研究Face Tracker的例子,并寻找一个解决方案,我可以找出口是否开放。例如人在打呵欠。没有直接的方式像face.getIsLeftEyeOpenProbability();

所以我想我需要找出左右口的x,y坐标找出差异并弄清楚鼠标是否打开。我不确定这是否有效。

但是,有没有其他方法可以确定嘴是开放的还是闭合的?

android face-recognition android-vision
5个回答
1
投票

不幸的是,Mobile Vision API不支持张开检测。


1
投票

该API允许跟踪口腔左侧,右侧和底部的面部标志:

https://developers.google.com/android/reference/com/google/android/gms/vision/face/Landmark

但不,API中没有明确的张开检测。


1
投票

Mobile Vision API不直接支持口开/关检测。但是这段代码可能对你有帮助。我已经在我的设备上测试和工作魅力。

 @Override
    public void draw(Canvas canvas) {

        Face face = mFace;

        if (face == null) {
            return;
        }

        if ((contains(face.getLandmarks(), 11) != 99)
                && (contains(face.getLandmarks(), 5) != 99)
                && (contains(face.getLandmarks(), 6) != 99)
                ) {

            Log.i(TAG, "draw: Mouth Open >> found all the points");

            /**
             * for bottom mouth
             */
            int cBottomMouthX;
            int cBottomMouthY;
            if (FaceTrackerActivity.mIsFrontFacing) {
                cBottomMouthX = (int) translateX(face.getLandmarks().get(contains(face.getLandmarks(), 0)).getPosition().x);
                cBottomMouthY = (int) translateY(face.getLandmarks().get(contains(face.getLandmarks(), 0)).getPosition().y);

                Log.i(TAG, "draw: Condition Bottom mouth >> cBottomMouthX >> " + cBottomMouthX + "    cBottomMouthY >> " + cBottomMouthY);


            } else {
                cBottomMouthX = (int) translateX(face.getLandmarks().get(contains(face.getLandmarks(), 0)).getPosition().x);
                cBottomMouthY = (int) translateY(face.getLandmarks().get(contains(face.getLandmarks(), 0)).getPosition().y);
            }
            canvas.drawCircle(cBottomMouthX, cBottomMouthY, 10, mPaint);

            /**
             * for left mouth
             */
            int cLeftMouthX;
            int cLeftMouthY;
            if (FaceTrackerActivity.mIsFrontFacing) {
                cLeftMouthX = (int) translateX(face.getLandmarks().get(contains(face.getLandmarks(), 5)).getPosition().x);
                cLeftMouthY = (int) translateY(face.getLandmarks().get(contains(face.getLandmarks(), 5)).getPosition().y);

                Log.i(TAG, "draw: Condition LEft mouth >> cLeftMouthX >> " + cLeftMouthX + "    cLeftMouthY >> " + cLeftMouthY);


            } else {
                cLeftMouthX = (int) translateX(face.getLandmarks().get(contains(face.getLandmarks(), 5)).getPosition().x);
                cLeftMouthY = (int) translateY(face.getLandmarks().get(contains(face.getLandmarks(), 5)).getPosition().y);
            }
            canvas.drawCircle(cLeftMouthX, cLeftMouthY, 10, mPaint);

            /**
             * for Right mouth
             */
            int cRightMouthX;
            int cRightMouthY;
            if (FaceTrackerActivity.mIsFrontFacing) {
                cRightMouthX = (int) translateX(face.getLandmarks().get(contains(face.getLandmarks(), 11)).getPosition().x);
                cRightMouthY = (int) translateY(face.getLandmarks().get(contains(face.getLandmarks(), 11)).getPosition().y);

                Log.i(TAG, "draw: Condition Right mouth >> cRightMouthX >> " + cRightMouthX + "    cRightMouthY >> " + cRightMouthY);


            } else {
                cRightMouthX = (int) translateX(face.getLandmarks().get(contains(face.getLandmarks(), 11)).getPosition().x);
                cRightMouthY = (int) translateY(face.getLandmarks().get(contains(face.getLandmarks(), 11)).getPosition().y);
            }
            canvas.drawCircle(cRightMouthX, cRightMouthY, 10, mPaint);

            float centerPointX = (cLeftMouthX + cRightMouthX) / 2;
            float centerPointY = ((cLeftMouthY + cRightMouthY) / 2) - 20;

            canvas.drawCircle(centerPointX, centerPointY, 10, mPaint);

            float differenceX = centerPointX - cBottomMouthX;
            float differenceY = centerPointY - cBottomMouthY;

            Log.i(TAG, "draw: difference X >> " + differenceX + "     Y >> " + differenceY);

            if (differenceY < (-60)) {
                Log.i(TAG, "draw: difference - Mouth is OPENED ");
            } else {
                Log.i(TAG, "draw: difference - Mouth is CLOSED ");
            }
         }
     }

这是另一种方法。

int contains(List<Landmark> list, int name) {
    for (int i = 0; i < list.size(); i++) {
        if (list.get(i).getType() == name) {
            return i;
        }
    }
    return 99;
}

P.S - 此代码将找到左和右口的中心点坐标,并找到底口坐标和中心点坐标之间的差异。


1
投票

我们可以使用mouthLeftPosition,mouthRightPosition和mouthBottomPosition之间的角度来检测嘴是否打开。

使用以下方法计算角度

双浮比=(AB * AB + AC * AC - BC * BC)/(2 * AC * AB); degree = Math.acos(ratio)*(180 / Math.PI);

if (degree < (110)) {
  System.out.println("Mouth is open");
}else {
  System.out.println("Mouth is close");
}

0
投票

计算左右口点之间的距离在每种情况下都不会很好,因为当用户离开相机时,与用户靠近相机时相比,这个距离会更短,所以没有标准来获得恒定的阈值检测嘴巴张开的时间。我认为,更好的方法是计算口 - 线的左 - >底 - 右 - >底部之间的角度。当角度减小时,它将描绘嘴张开的事件。

我一直在尝试实现相同的目标,并且无法使用简单的方法找到它。所以,我想到了这个解决方案,并将在我的最终实现它。

© www.soinside.com 2019 - 2024. All rights reserved.