TensorFlow는 기계 학습 모델을 만들기 위한 다목적 도구입니다.
이번 포스팅에서는 오픈소스 머신러닝 프레임워크인 TensorFlow로 얼굴인식 시스템을 만드는 방법에 대해 알아보겠습니다. 데이터 수집 및 준비에서 모델 교육 및 평가에 이르기까지 성공적인 얼굴 인식 시스템을 만드는 데 필수적인 프로세스를 살펴보겠습니다.
TensorFlow를 직접 경험해 코드 스니펫과 실제 사례를 통해 얼굴 인식을 만들 수 있습니다. 우리가 진행하는 동안 당신은 환영합니다.
TensorFlow 소개
TensorFlow는 무료 오픈 소스 라이브러리입니다. 데이터 흐름과 미분 가능 프로그래밍을 사용하는 기호 수학 도구 상자입니다. 깊은 작업을 포함하여 다양한 작업을 처리할 수 있습니다. 신경망 교육 자료를 제공합니다.
TensorFlow는 강력하고 적응력이 뛰어납니다. 마찬가지로 개발 및 개발을 위한 훌륭한 도구입니다. 기계 학습 모델 배포. 여러 계층과 텐서 연산으로 복잡한 모델을 구축할 수 있습니다. 또한 라이브러리의 사전 구축된 모델을 특정 요구 사항에 맞게 미세 조정할 수 있습니다.
또한 TensorFlow에는 방대하고 확장되는 사용자 커뮤니티가 있습니다. 따라서 플랫폼을 처음 사용하는 개인을 위한 많은 정보와 도움말이 있습니다.
TensorFlow는 기계 학습 부분적으로는 엔드투엔드 워크플로우를 제공하기 때문입니다. 따라서 모델을 쉽게 구축, 교육 및 배포할 수 있습니다. 특정 요구 사항에 맞게 모델을 개선하고 확장하기 위한 도구와 전략을 제공합니다. 데이터 사전 처리에서 모델 배포까지 다양합니다.
얼굴 인식이란 무엇입니까?
얼굴 인식은 컴퓨터 비전 얼굴을 기반으로 사람의 신원을 식별하는 작업입니다. 이 기술은 눈, 코, 입의 모양과 질감과 같은 얼굴 특징을 인식합니다.
그리고 일치를 식별하기 위해 알려진 얼굴 데이터베이스와 비교합니다. 얼굴 인식에는 보안 시스템, 사진 구성 및 생체 인식 인증을 비롯한 여러 가지 용도가 있습니다.
얼굴 인식 알고리즘의 정확도는 기계 학습의 획기적인 결과로 최근 몇 년 동안 크게 증가했습니다.
필요한 라이브러리 가져오기
시작하기 전에 모델에 필요한 라이브러리를 가져와야 합니다. Tensorflow(tf)를 가져와서 모델을 만들고 훈련하는 데 활용합니다. <(피>
"numpy"는 수학적 계산 및 데이터 처리를 수행합니다.
"matplotlib.pyplot"은 plt로 가져와 다음 용도로 사용됩니다. 데이터 차트 및 시각화.
마지막으로 "fetch lfw people"은 sklearn에서 가져옵니다. 얼굴 인식 데이터 세트를 로드하는 데 사용됩니다. 이 기능은 scikit-learn 툴킷의 일부입니다. 이 기능 덕분에 다른 데이터 세트를 업로드할 필요가 없었습니다. 이것은 이미 sckit-learn에 내장되어 있습니다.
그리고, 그것은 당신에게 다양한 범위에 대한 액세스를 제공합니다 기계 학습을 위한 데이터 세트 응용 프로그램. 이 시나리오에서는 LFW(Labeled Faces in the Wild) 데이터 세트를 검색하기 위해 fetch lfw people 메서드를 사용합니다. 그것은 사람들의 얼굴 사진과 그들과 함께 가는 라벨로 구성됩니다.
이러한 라이브러리는 얼굴 인식 모델의 구현 및 평가에 매우 중요합니다.
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt from sklearn.datasets
import fetch_lfw_people
얼굴 인식 데이터 세트 전처리 및 로드
이 부분에서는 얼굴 인식 데이터를 전처리하기 위해 “fetch lfw people” 기능을 활용합니다. 먼저, “min faces per person=60” 옵션과 함께 fwf people 가져오기를 사용합니다. 이는 최소 60장의 사진이 있는 사람만 데이터 세트에 포함하려고 함을 나타냅니다. 따라서 모델에 학습할 적절한 데이터가 있는지 확인합니다. 또한 이것은 과적합의 위험을 낮춥니다.
그런 다음 얼굴 개체의 데이터와 레이블이 추출되어 변수 X 및 y에 할당됩니다. 엑스 홀.
이제 전처리된 데이터와 레이블을 사용하여 얼굴 인식 모델을 훈련할 준비가 되었습니다.
faces = fetch_lfw_people(min_faces_per_person=60)
X = faces.data
y = faces.target
target_names = faces.target_names
교육 및 테스트 세트 분할
이 단계에서는 sklearn.model 선택의 학습 테스트 분할 방법을 사용하여 얼굴 인식 데이터 세트를 두 부분으로 나눕니다. 이 분할의 목표는 학습 후 모델의 성능을 평가하는 것입니다.
훈련 테스트 분할 기능은 데이터 X와 레이블 y를 입력으로 받아들입니다. 그리고 훈련 세트와 테스트 세트로 나눕니다. 이 예에서는 테스트 크기=0.2를 선택합니다. 즉, 데이터의 20%는 테스트 세트로, 80%는 훈련 세트로 활용됩니다. 또한 random state=42를 사용하여 코드가 수행될 때마다 데이터가 일관되게 분할되도록 합니다.
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
데이터 준비
데이터 전처리의 목적은 데이터를 모델에 입력하기 위해 준비하는 것입니다. 데이터는 이 코드에서 각 데이터 포인트를 255로 나누어 전처리됩니다.
이를 달성하게 된 동기는 무엇입니까? 정규화는 모든 기능이 동일한 척도에 있음을 보장하기 위해 기계 학습에 사용되는 전처리 절차입니다. 이 시나리오에서 255로 나누면 데이터가 일반적인 사진 데이터 정규화 단계인 0에서 1 범위로 조정됩니다.
이렇게 하면 모델의 수렴 속도가 빨라지고 성능이 향상될 수 있습니다.
X_train = X_train / 255.0
X_test = X_test / 255.0
모드 만들기
사진에 얼굴이 나타나는 개인을 식별하려고 합니다. 이 경우 밀집된 네트워크라고도 하는 완전히 연결된 네트워크를 사용합니다. 모델을 만드는 데 사용된 인공 신경망입니다.
인공 신경망은 인간의 뇌가 작동하고 구성되는 방식을 모델로 합니다. 그들은 연결된 정보 처리 노드 또는 뉴런으로 구성됩니다. 조밀한 네트워크의 계층에 있는 각 뉴런은 상위 계층의 모든 뉴런에 연결됩니다.
이 코드에는 모델에 128개의 계층이 있습니다. 다음 레이어로 공급하기 위해 입력 데이터는 첫 번째 레이어에서 64차원 배열로 평면화됩니다. 따라서 다음 두 계층의 XNUMX개와 XNUMX개 뉴런은 완전히 연결되어 있습니다.
ReLU 활성화 함수는 이러한 계층에서 사용되는 고유한 활성화 함수입니다. 이를 통해 모델이 입력과 출력 간의 비선형 상관관계를 학습하도록 할 수 있습니다. 마지막 레이어는 소프트맥스 활성화 기능을 사용하여 예측합니다. 그리고 잠재적인 클래스 수만큼 뉴런이 있는 완전 연결 계층입니다.
model = tf.keras.models.Sequential([
tf.keras.layers.Flatten(input_shape=(62 * 47,)),
tf.keras.layers.Dense(128, activation='relu'),
tf.keras.layers.Dense(64, activation='relu'),
tf.keras.layers.Dense(len(target_names), activation='softmax')
])
모델 컴파일
모델은 "컴파일" 기능을 사용하여 컴파일됩니다. 학습을 위한 모델을 준비해야 합니다. 따라서 모델을 평가하는 데 사용할 옵티마이저, 손실 함수 및 메트릭을 정의합니다.
교육 중에 옵티마이저는 모델의 매개변수 변경을 담당합니다. "adam" 옵티마이저는 널리 사용되는 딥 러닝 최적화 기술입니다.
학습 데이터에 대한 모델의 성능을 평가하기 위해 손실 함수를 사용합니다. 대상 레이블은 원-핫 인코딩된 벡터가 아니라 이미지의 클래스를 반영하는 정수이기 때문에 "희소 범주 교차 엔트로피" 손실 함수가 유리합니다.
마지막으로 모델을 평가하기 위한 메트릭(이 경우 "정확도")을 정의합니다.
model.compile(optimizer='adam', loss='sparse_categorical_crossentropy', metrics=['accuracy'])
모델 훈련
우리는 "fit" 기능을 사용하여 모델을 훈련할 것입니다.
교육 데이터(X 열차) 및 관련 레이블(y 열차)을 제공하고 에포크(반복) 수를 10으로 설정합니다. 교육 절차는 모델 가중치를 수정하여 손실을 줄입니다. 예측 및 실제 레이블) 훈련 데이터의 정확도를 향상시킵니다.
model.fit(X_train, y_train, epochs=10)
모델 평가
이제 테스트 데이터에서 훈련된 모델을 평가해야 합니다. 테스트 손실과 테스트 정확도를 사용하여 모델의 성능을 평가합니다. 테스트 데이터 X 테스트와 테스트 레이블 y 테스트에서 "모델 평가 함수"를 호출해야 합니다.
이 함수는 테스트 정확도와 테스트 손실을 출력합니다. 변수 테스트 손실 및 테스트 정확도에는 각각 이러한 값이 포함됩니다. 마지막으로 "인쇄" 기능을 사용하여 테스트 정확도를 출력합니다.
test_loss, test_accuracy = model.evaluate(X_test, y_test)
print("Test accuracy:", test_accuracy)
클래스 예측 및 예측 클래스 가져오기
학습 모델과 테스트 데이터를 사용하여 알고리즘은 예측을 수행합니다. 테스트 데이터가 "model.predict" 메서드로 전달되면 테스트 세트의 각 사진에 대한 예측 배열을 출력합니다.
그런 다음 "np.argmax" 함수를 사용하여 "대상 이름" 목록에서 각 그림의 대상 클래스 이름을 검색하여 예측 확률이 가장 큰 인덱스를 식별합니다. 이 인덱스는 각 이미지에 대한 예측 클래스를 결정하는 데 사용됩니다.
list comprehension을 사용하면 "predictions" 배열의 모든 예측에 이 메서드가 적용되어 "predicted class" 목록이 생성됩니다.
predictions = model.predict(X_test)
predicted_classes = [target_names[np.argmax(prediction)] for prediction in predictions]
예측 시각화
이제 모델이 어떻게 보이는지 확인할 수 있습니다.
모델이 얼마나 잘 작동하는지 평가하기 위해 처음 10장의 사진과 해당 예측이 표시됩니다. 사진을 회색조로 플롯하고 이미지의 실제 클래스와 matplotlib.pyplot 모듈을 사용하여 모델에서 예측한 클래스를 모두 표시합니다.
"imshow" 함수는 for 루프에서 처음 10개의 테스트 세트 사진을 각각 플로팅하는 데 사용됩니다. 대상 이름[y test[i]]과 예측 클래스[i]는 각각 이미지의 실제 클래스와 예측 클래스를 결정하는 데 사용됩니다. 각 플롯의 제목은 이러한 분류로 표시됩니다.
마지막으로 플롯은 plt.show() 메서드를 사용하여 표시됩니다.
for i in range(10):
plt.imshow(X_test[i].reshape(62, 47), cmap='gray')
plt.title(f"True: {target_names[y_test[i]]}, Predicted:{predicted_classes[i]}")
plt.show()
마무리
TensorFlow는 기계 학습 모델을 만들기 위한 완전하고 유연한 환경을 제공합니다.
특정 요구 사항을 충족하도록 모델을 미세 조정하거나 기계 학습에 새로운 개발을 추가하면 모델의 정확도를 더욱 높일 수 있습니다.
TensorFlow 및 안면 인식은 향후 보안 시스템, 생체 인증 및 의료와 같은 산업에서 점점 더 많이 사용될 것입니다. 우리는 곧 매혹적인 혁신을 보게 될 것입니다.
댓글을 남겨주세요.