KR102665453B1 - Apparatus and method for providing customized content based on gaze recognition - Google Patents
Apparatus and method for providing customized content based on gaze recognition Download PDFInfo
- Publication number
- KR102665453B1 KR102665453B1 KR1020220006674A KR20220006674A KR102665453B1 KR 102665453 B1 KR102665453 B1 KR 102665453B1 KR 1020220006674 A KR1020220006674 A KR 1020220006674A KR 20220006674 A KR20220006674 A KR 20220006674A KR 102665453 B1 KR102665453 B1 KR 102665453B1
- Authority
- KR
- South Korea
- Prior art keywords
- gaze
- content
- user
- item
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0623—Electronic shopping [e-shopping] by investigating goods or services
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0241—Advertisements
- G06Q30/0251—Targeted advertisements
- G06Q30/0269—Targeted advertisements based on user profile or attribute
- G06Q30/0271—Personalized advertisement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping
- G06Q30/0643—Electronic shopping [e-shopping] utilising user interfaces specially adapted for shopping graphically representing goods, e.g. 3D product representation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Strategic Management (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Marketing (AREA)
- Development Economics (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Tourism & Hospitality (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Game Theory and Decision Science (AREA)
- Primary Health Care (AREA)
- Human Resources & Organizations (AREA)
- Entrepreneurship & Innovation (AREA)
- Ophthalmology & Optometry (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법은, 콘텐츠 제공 장치의 적어도 하나의 프로세서에 의하여 실행되는 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법에 있어서, 이미지 센서를 기초로 유저의 얼굴인식 영상을 획득하는 단계; 상기 획득된 얼굴인식 영상을 기��로 상기 이미지 센서를 제어하여 상기 유저의 얼굴 정면뷰 영상을 획득하는 단계; 상기 획득된 얼굴 정면뷰 영상을 기초로 상기 유저의 시선방향 및 시선 고정시간 정보를 포함하는 시선정보를 생성하는 단계; 상기 생성된 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계; 상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계; 및 상기 검출된 아이템에 대한 상품정보 콘텐츠를 제공하는 단계를 포함한다.A method of providing customized content based on gaze recognition according to an embodiment of the present invention is a method of providing customized content based on gaze recognition that is executed by at least one processor of a content providing device, wherein the user's face is detected based on an image sensor. Obtaining a recognition image; Obtaining a front view image of the user's face by controlling the image sensor based on the acquired facial recognition image; Generating gaze information including gaze direction and gaze fixation time information of the user based on the acquired front view image of the face; determining a display area corresponding to the generated gaze information as a region of interest; detecting an item matching the determined area of interest; and providing product information content for the detected item.
Description
본 발명은 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법에 관한 것이다. 보다 자세하���는, 상품을 응시하는 장치 사용자의 시선인식을 기반으로 상기 장치 사용자의 관심도를 실시간으로 추정하여 맞춤형 콘텐츠를 제공하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing customized content based on gaze recognition. More specifically, it relates to an apparatus and method for providing customized content by estimating the level of interest of a device user in real time based on gaze recognition of the device user looking at a product.
정보화 시대에 있어 다양한 방식의 광고 방법 중 표시장치에 의한 광고는, 시청자의 관심도와 상관없이 일방적으로 특정 다수에 대한 광고를 제공해주는 방식이다.Among the various advertising methods in the information age, advertising through display devices is a method of unilaterally providing advertising to a specific majority of viewers regardless of their level of interest.
시청자의 광고 상품에 대한 관심도나 개인 성향 등에 따라 광고의 효과는 천차만별이며, 광고의 효과를 높이기 위해 시청자의 취향 및 소비 패턴 등을 수집하여 개인별 맞춤형 광고를 제공하기도 한다.The effectiveness of advertising varies greatly depending on the viewer's interest in the advertised product or personal preference. To increase the effectiveness of advertising, the viewer's tastes and consumption patterns are collected to provide personalized advertising.
그러나, 이러한 정보를 기반으로 관심도를 추측하여 맞춤형 광고를 제공하는 것은, 시청자가 실제 미디어 소비 시 느끼는 관심도를 반영해줄 수 없다는 문제점이 있다.However, providing customized advertisements by estimating interest based on this information has the problem that it cannot reflect the interest felt by viewers when actually consuming media.
또한, 소정의 장치에 광고 노출이 가능한 경우에 있어, 상기 장치를 사용하는 자의 선택을 통해 관심 있는 상품에 대한 광고를 제공하는 방법이 있으나, 이는 사용자의 행동을 요구하므로 일방적 또는 자동적으로 광고를 제공하는 방법에 비해서 광고의 노출이 낮을 수밖에 없다.In addition, in cases where advertisements can be displayed on a given device, there is a method of providing advertisements for products of interest through the selection of the person using the device, but since this requires user action, advertisements are provided unilaterally or automatically. Compared to other methods, the exposure of advertisements is bound to be low.
따라서, 사용자가 미디어를 소비할 때, 사용자의 관심도를 즉각적으로 반영하여 자동으로 광고를 노출하는 방법이 필요한 실정이다.Therefore, when a user consumes media, there is a need for a method to automatically display advertisements by immediately reflecting the user's level of interest.
본 발명은, 상기와 같은 종래 기술의 문제점을 해결하기 위해 안출된 것으로, 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법을 제공하는데 그 목적이 있다.The present invention was conceived to solve the problems of the prior art as described above, and its purpose is to provide an apparatus and method for providing customized content based on gaze recognition.
또한, 본 발명은, 사용자의 신체적 특성에 따라 장치에 부착된 카메라의 시야각을 실시간으로 자동 조정하는 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법을 제공하고자 한다.Additionally, the present invention seeks to provide a device and method for providing customized content based on gaze recognition that automatically adjusts the viewing angle of a camera attached to the device in real time according to the user's physical characteristics.
또한, 본 발명은, 사용자가 응시중인 상품에 대한 콘텐츠를 출력하는 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법을 제공하고자 한다.Additionally, the present invention seeks to provide an apparatus and method for providing customized content based on gaze recognition that outputs content about a product the user is looking at.
또한, 본 발명은, 복수의 사용자의 수에 맞게 콘텐츠 출력 화면을 분할하는 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법을 제공하고자 한다.Additionally, the present invention seeks to provide an apparatus and method for providing customized content based on gaze recognition by dividing the content output screen according to the number of users.
다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problems to be achieved by the present invention and embodiments of the present invention are not limited to the technical problems described above, and other technical problems may exist.
본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법은, 콘텐츠 제공 장치의 적어도 하나의 프로세서에 의하여 실행되는 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법에 있어서, 이미지 센서를 기초로 유저의 얼굴인식 영상을 획득하는 단계; 상기 획득된 얼굴인식 영상을 기초로 상기 이미지 센서를 제어하여 상기 유저의 얼굴 정면뷰 영상을 획득하는 단계; 상기 획득된 얼굴 정면뷰 영상을 기초로 상기 유저의 시선방향 및 시선 고정시간 정보를 포함하는 시선정보를 생성하는 단계; 상기 생성된 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계; 상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계; 및 상기 검출된 아이템에 대한 상품정보 콘텐츠를 제공하는 단계를 포함한다.A method of providing customized content based on gaze recognition according to an embodiment of the present invention is a method of providing customized content based on gaze recognition that is executed by at least one processor of a content providing device, wherein the user's face is detected based on an image sensor. Obtaining a recognition image; Obtaining a front view image of the user's face by controlling the image sensor based on the acquired facial recognition image; Generating gaze information including gaze direction and gaze fixation time information of the user based on the acquired front view image of the face; determining a display area corresponding to the generated gaze information as a region of interest; detecting an item matching the determined area of interest; and providing product information content for the detected item.
이때, 상기 획득된 얼굴인식 영상을 기초로 상기 이미지 센서를 제어하여 상기 유저의 얼굴 정면뷰 영상을 획득하는 단계는, 상기 얼굴인식 영상을 기 학습된 딥러닝 뉴럴 네트워크의 입력 데이터로 제공하는 단계와, 상기 딥러닝 뉴럴 네트워크의 출력 데이터로 상기 유저의 얼굴 포즈정보를 획득하는 단계와, 상기 획득된 얼굴 포즈 정보를 기초로 상기 이미지 센서를 제어하는 단계를 포함한다.At this time, the step of controlling the image sensor based on the acquired face recognition image to obtain a front view image of the user's face includes providing the face recognition image as input data to a previously learned deep learning neural network; , Obtaining facial pose information of the user using output data of the deep learning neural network, and controlling the image sensor based on the acquired facial pose information.
또한, 상기 생성된 ���선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계는, 상기 유저의 시선 고정시간 정보가 기 설정된 시간 이상을 충족하면, 상기 유저의 시선방향에 대응되는 디스플레이 영역을 상기 관심영역으로 결정하는 단계를 포함한다.In addition, the step of determining the display area corresponding to the generated gaze information as the interest area includes, if the user's gaze fixation time information satisfies a preset time or more, the display area corresponding to the user's gaze direction is selected as the interest area. It includes the step of determining the area.
또한, 상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계는, 상기 디스플레이 영역을 기초로 출력되는 아이템페이지를 선택하는 유저 입력을 획득하는 단계와, 상기 선택된 아이템페이지 내 상기 관심영역에 매칭된 아이템을 검출하는 단계를 포함한다. In addition, the step of detecting an item matching the determined area of interest includes obtaining a user input for selecting an item page to be output based on the display area, and selecting an item matched to the area of interest within the selected item page. It includes a detection step.
또한, 상기 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계는, 상기 시선정보가 변경되면 상기 변경된 시선정보에 대응되는 디스플레이 영역으로 상기 관심영역을 업데이트하는 단계를 포함한다. Additionally, the step of determining the display area corresponding to the gaze information as the area of interest includes updating the area of interest with the display area corresponding to the changed gaze information when the gaze information changes.
또한, 상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계는, 상기 관심영역에 매칭되는 디스플레이 영역 내 적어도 하나의 픽셀을 검출하는 단계와, 상기 검출된 적어도 하나의 픽셀에 대하여 기 저장된 아이템을 검출하는 단계를 포함한다.In addition, the step of detecting an item matching the determined area of interest includes detecting at least one pixel in a display area matching the area of interest, and detecting a pre-stored item for the detected at least one pixel. Includes steps.
또한, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법은, 상기 디스플레이 영역 내 적어도 하나의 픽셀을 선택하는 유저 입력을 획득하는 단계와, 상기 선택된 적어도 하나의 픽셀에 대하여 기 저장된 아이템을 검출하는 단계와, 상기 검출된 아이템에 대한 상품정보 콘텐츠를 출력하는 단계를 더 포함한다.In addition, a method of providing customized content based on gaze recognition according to an embodiment of the present invention includes obtaining a user input for selecting at least one pixel in the display area, and selecting a pre-stored item for the selected at least one pixel. It further includes detecting and outputting product information content for the detected item.
한편, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치는, 유저의 얼굴인식 영상을 획득하는 적어도 하나의 이미지 센서; 상기 획득된 얼굴인식 영상에 기초한 상품정보 콘텐츠를 출력하는 적어도 하나의 디스플레이; 적어도 하나의 프로세서; 를 포함하고, 상기 프로세서는, 상기 얼굴인식 영상을 기초로 상기 이미지 센서를 제어하여 상기 유저의 얼굴 정면뷰 영상을 획득하고, 상기 획득된 얼굴 정면뷰 영상을 기초로 상기 유저의 시선방향 및 시선 고정시간 정보를 포함하는 시선정보를 생성하고, 상기 생성된 시선정보에 대응되는 상기 디스플레이 영역을 관심영역으로 결정하고, 상기 결정된 관심영역에 매칭되는 아이템을 검출하고, 상기 검출된 아이템에 대한 상품정보 콘텐츠를 제공한다.Meanwhile, an apparatus for providing customized content based on gaze recognition according to an embodiment of the present invention includes at least one image sensor that acquires a face recognition image of a user; At least one display that outputs product information content based on the acquired facial recognition image; at least one processor; It includes, wherein the processor controls the image sensor based on the face recognition image to obtain a front view image of the user's face, and determines the user's gaze direction and gaze fixation based on the obtained front view image of the face. Generate gaze information including time information, determine the display area corresponding to the generated gaze information as an area of interest, detect an item matching the determined area of interest, and product information content for the detected item. provides.
또한, 상기 디스플레이는, 적어도 하나 이상의 상기 아이템에 대한 대표 이미지를 출력하는 아이템 디스플레이와, 상기 상품정보 콘텐츠를 출력하는 콘텐츠 디스플레이를 포함한다.Additionally, the display includes an item display that outputs a representative image for at least one item, and a content display that outputs the product information content.
또한, 상기 프로세서는, 상기 얼굴인식 영상에 기반한 딥러닝을 기초로 상기 유저의 얼굴 포즈정보를 획득하고, 상기 획득된 얼굴 포즈정보를 기초로 상기 이미지 센서를 제어하여 상기 유저의 얼굴 정면뷰 영상을 획득��다.In addition, the processor acquires facial pose information of the user based on deep learning based on the facial recognition image, and controls the image sensor based on the acquired facial pose information to produce a front view image of the user's face. Acquire.
본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법은, 사용자의 신체적 특성에 따라 장치에 부착된 카메라의 시야각을 실시간으로 자동 조정함으로써 사용자가 바뀔 때마다 사용자에 맞는 초기 세팅 수행에 소요되는 시간을 단축하는 효과가 있다.An apparatus and method for providing customized content based on gaze recognition according to an embodiment of the present invention performs initial settings tailored to the user each time the user changes by automatically adjusting the viewing angle of the camera attached to the device in real time according to the user's physical characteristics. It has the effect of shortening the time required.
또한, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법은 사용자가 응시중인 상품에 대한 콘텐츠를 출력함으로써 사용자의 관심 상품을 직관적으로 파악하여 콘텐츠 노출에 따른 사용자의 만족도를 향상시키는 효과가 있다.In addition, the device and method for providing customized content based on gaze recognition according to an embodiment of the present invention intuitively identifies the product of interest to the user by outputting content about the product the user is looking at, thereby improving the user's satisfaction according to content exposure. It has an effect.
또한, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법은 복수의 사용자 수에 맞게 콘텐츠 출력 화면을 분할함으로써 콘텐츠 출력 화면을 효율적으로 사용하여 각 사용자에게 광고 및 정보의 전달력을 상승시키는 효과가 있다.In addition, the device and method for providing customized content based on gaze recognition according to an embodiment of the present invention divides the content output screen according to the number of users, thereby efficiently using the content output screen to deliver advertisements and information to each user. It has the effect of increasing .
다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다.However, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood from the description below.
도 1은 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치의 내부 블록도이다.
도 2는 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치를 설명하기 위한 도면의 일례이다.
도 3은 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시예에 따른 얼굴 키포인트(key point)를 추정하는 방법을 설명하기 위한 도면의 일례이다.
도 5는 본 발명의 실시예에 따른 시선 방향을 추적하기 위한 시선정보를 설명하기 위한 도면의 일례이다.
도 6은 본 발명의 실시예에 따른 시선정보를 기초로 관심영역을 설정하는 방법을 설명하기 위한 도면의 일례이다.
도 7은 본 발명의 다른 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 다른 실시예에 따라 복수의 시선인식 기반 맞춤형 콘텐츠가 출력되는 모습을 나타낸 일례이다.1 is an internal block diagram of a device that provides customized content based on gaze recognition according to an embodiment of the present invention.
Figure 2 is an example of a diagram for explaining a device that provides customized content based on gaze recognition according to an embodiment of the present invention.
Figure 3 is a flowchart illustrating a method of providing customized content based on gaze recognition according to an embodiment of the present invention.
Figure 4 is an example of a diagram for explaining a method of estimating a face key point according to an embodiment of the present invention.
Figure 5 is an example of a drawing for explaining gaze information for tracking gaze direction according to an embodiment of the present invention.
Figure 6 is an example of a diagram for explaining a method of setting a region of interest based on gaze information according to an embodiment of the present invention.
Figure 7 is a flowchart illustrating a method of providing customized content based on gaze recognition according to another embodiment of the present invention.
Figure 8 is an example showing a plurality of customized contents based on gaze recognition being output according to another embodiment of the present invention.
본 발명은 다양한 ���환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. Additionally, singular expressions include plural expressions unless the context clearly dictates otherwise. Additionally, terms such as include or have mean that the features or components described in the specification exist, and do not preclude the possibility of adding one or more other features or components. Additionally, in the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are shown arbitrarily for convenience of explanation, so the present invention is not necessarily limited to what is shown.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .
본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치는, 유저를 촬영한 영상을 기초로 상기 장치에 부착된 카메라의 앵글을 실시간으로 자동 조정하여 상기 유저의 시선을 인식하고, 상기 유저가 응시중인 아이템에 대한 상품정보를 포함하는 콘텐츠인 시선인식 기반 맞춤형 콘텐츠를 제공할 수 있다.A device that provides customized content based on gaze recognition according to an embodiment of the present invention automatically adjusts the angle of a camera attached to the device in real time based on images captured of the user, recognizes the user's gaze, and It is possible to provide customized content based on gaze recognition, which is content containing product information about the item being gazed at.
실시예에서 아이템이란, 시선인식 기반 맞춤형 콘텐츠 제공 장치를 이용하여 상기 장치를 이용하는 유저에게 판매될 수 있는 물품 및 서비스 등을 의미한다.In the embodiment, items refer to goods and services that can be sold to users using a gaze recognition-based customized content provision device.
또한, 실시예에서 상품정보란, 상기 장치를 이용하여 유저에게 판매될 수 있는 아이템에 대한 광고 및 부가정보 등을 의미한다.Additionally, in the embodiment, product information means advertisements and additional information about items that can be sold to users using the device.
- 시선인식 기반 맞춤형 콘텐츠 제공 장치(100: Device for providing customized contents based on gaze recognition) - Device for providing customized contents based on gaze recognition (100)
도 1은 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치(이하, 콘텐츠 제공 장치(100))의 내부 블록도이다.Figure 1 is an internal block diagram of a device that provides customized content based on gaze recognition (hereinafter referred to as content providing device 100) according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 콘텐츠 제공 장치(100)는, 시선인식 기반 맞춤형 콘텐츠를 제공하는 프로세서 어셈블리(120)가 설치된 소정의 컴퓨팅 장치일 수 있다.Referring to FIG. 1, the content providing device 100 according to an embodiment of the present invention may be a computing device installed with a processor assembly 120 that provides customized content based on gaze recognition.
실시예에서 콘텐츠 제공 장치(100)는, 유저가 ��택한 소정의 아이템을 구매할 수 있는 구매 환경을 제공할 수 있다.In an embodiment, the content providing device 100 may provide a purchasing environment in which a user can purchase a selected item.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 유저가 응시하는 아이템에 대한 광고 및 부가정보를 포함하는 콘텐츠를 상기 장치에 포함된 디스플레이로 출력하는 콘텐츠 출력 환경을 제공할 수 있다.Additionally, in an embodiment, the content providing device 100 may provide a content output environment that outputs content including advertisements and additional information about the item the user is looking at on a display included in the device.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 유저의 정면을 촬영한 영상을 획득할 수 있다.Additionally, in the embodiment, the content providing device 100 may acquire an image of the user's front view.
이러한 콘텐츠 제공 장치(100)는, 소비자가 일반적으로 아이템을 구매하는 환경에서 이용하기 용이한 자동 판매기(Vending machine, 이하 자판기) 또는 키오스크(Kiosk)로 구현됨이 가장 바람직한 실시예일 수 있으며, 이하의 실시예서는 상기 콘텐츠 제공 장치(100)를 상기 자판기 타입에 기준하여 설명하나 이에 한정되는 것은 아니다.In the most preferred embodiment, this content providing device 100 may be implemented as a vending machine (hereinafter referred to as a vending machine) or a kiosk (Kiosk) that is easy to use in an environment where consumers generally purchase items. In the embodiment, the content providing device 100 is described based on the vending machine type, but is not limited thereto.
실시예에서, 프로세서 어셈블리(120)는, 상술된 콘텐츠 제공 장치(100)에 설치되어 상기 콘텐츠 제공 장치(100)에서 수행하는 각종 기능동작을 수행할 수 있다.In an embodiment, the processor assembly 120 may be installed in the content providing device 100 described above and perform various functional operations performed by the content providing device 100.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 콘텐츠 출력 환경을 제공하기 위해 소정의 서버(Server) 컴퓨팅 디바이스를 더 포함할 수도 있다. Additionally, in the embodiment, the content providing device 100 may further include a server computing device to provide a content output environment.
한편, 도 1을 더 참조하면, 기능적 관점에서 콘텐츠 제공 장치(100)는, 메모리(110), 프로세서 어셈블리(120), 통신 프로세서(130), 결제부(140), 입력 시스템(150), 센서 시스템(160) 및 디스플레이 시스템(170) 및 토출부(180)를 포함할 수 있다. 이러한 구성요소들은 콘텐츠 제공 장치(100)의 하우징 내에 포함되도록 구성될 수 있다. Meanwhile, referring further to FIG. 1, from a functional perspective, the content providing device 100 includes a memory 110, a processor assembly 120, a communication processor 130, a payment unit 140, an input system 150, and a sensor. It may include a system 160, a display system 170, and a discharge unit 180. These components may be configured to be included within the housing of the content providing device 100.
자세히, 메모리(110)에는, 상품정보 데이터베이스(111)가 저장되며, 상기 상품정보 데이터베이스(111)에는 콘텐츠 출력 환경을 제공하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상이 저장될 수 있다. In detail, a product information database 111 is stored in the memory 110, and any one or more of various applications, data, and commands for providing a content output environment may be stored in the product information database 111.
이때, 실시예에서 상품정보 데이터베이스(111)는, 콘텐츠 제공 장치(100)를 통해 판매하는 아이템 각각에 대한 상품정보가 기 저장된 데이터 집합체를 의미한다.At this time, in the embodiment, the product information database 111 refers to a data set in which product information for each item sold through the content providing device 100 is pre-stored.
즉, 메모리(110)는, 콘텐츠 출력 환경을 생성하기 위하여 사용될 수 있는 명령 및 데이터를 저장할 수 있다. That is, the memory 110 may store commands and data that can be used to create a content output environment.
또한, 상기 메모리(110)는, 프로그램 영역과 데이터 영역을 포함할 수 있다. Additionally, the memory 110 may include a program area and a data area.
여기서, 실시예에 따른 프로그램 영역은, 콘텐츠 제공 장치(100)을 부팅하는 운영체제(OS: Operating System) 및 기능요소들 사이에 연계될 수 있으며, 데이터 영역은, 콘텐츠 제공 장치(100)의 사용에 따라 발생하는 데이터가 저장될 수 있다. Here, the program area according to the embodiment may be linked between the operating system (OS: Operating System) and functional elements that boot the content providing device 100, and the data area may be used for use of the content providing device 100. Data generated accordingly can be stored.
또한, 메모리(110)는, 적어도 하나 이상의 비일시적 컴퓨터 판독 가능 저장매체와, 일시적 컴퓨터 판독 가능 저장매체를 포함할 수 있다. Additionally, the memory 110 may include at least one non-transitory computer-readable storage medium and a temporary computer-readable storage medium.
예를 들어, 메모리(110)는, ROM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet) 상에서 상기 메모리(110)의 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수 있다. For example, the memory 110 may be a variety of storage devices such as ROM, EPROM, flash drive, hard drive, etc., and web storage that performs the storage function of the memory 110 on the Internet. may include.
프로세서 어셈블리(120)는, 구매 환경 및 콘텐츠 출력 환경을 제공하기 위한 다양한 작업을 수행하기 위해, 메모리(110)에 저장된 상품정보 데이터베이스(111)의 명령들을 실행할 수 있는 적어도 하나 이상의 프로세서를 포함할 수 있다. The processor assembly 120 may include at least one processor capable of executing instructions of the product information database 111 stored in the memory 110 to perform various tasks for providing a purchasing environment and content output environment. there is.
실시예에서 프로세서 어셈블리(120)는, 맞춤형 콘텐츠를 제공하기 위하여 메모리(110)의 상품정보 데이터베이스(111)를 통해 구성요소의 전반적인 동작을 컨트롤할 수 있다. In an embodiment, the processor assembly 120 may control the overall operation of components through the product information database 111 of the memory 110 to provide customized content.
이러한 프로세서 어셈블리(120)는, 중앙처리장치(CPU) 및/또는 그래픽처리장치(GPU) 등이 포함된 콘텐츠 제공 장치(100)에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리(110)에 저장된 운영체제(OS) 및/또는 애플리케이션 프로그램 등을 실행할 수 있고, 콘텐츠 제공 장치(100)에 탑재된 각 구성요소들을 제어할 수 있다. This processor assembly 120 may be a system-on-chip (SOC) suitable for the content providing device 100 that includes a central processing unit (CPU) and/or a graphics processing unit (GPU), and is installed in the memory 110. The stored operating system (OS) and/or application programs can be executed, and each component mounted on the content providing device 100 can be controlled.
또한, 프로세서 어셈블리(120)는, 각 구성요소와 내부적으로 시스템 버스(System Bus)에 의해 통신을 수행할 수 있고, 로컬 버스(Local Bus)를 비롯한 소정의 버스 구조들을 하나 이상 포함할 수 있다. Additionally, the processor assembly 120 may internally communicate with each component through a system bus and may include one or more bus structures, including a local bus.
또한, 프로세서 어셈블리(120)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함하여 구현될 수 있다. In addition, the processor assembly 120 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and controllers. ), micro-controllers, microprocessors, and other electrical units for performing functions.
통신 프로세서(130)는, 외부의 장치와 통신하기 위한 하나 이상의 장치를 포함할 수 있다. 이러한 통신 프로세서(130)는, 무선 네트워크를 통해 통신할 수 있다.The communication processor 130 may include one or more devices for communicating with external devices. This communication processor 130 can communicate through a wireless network.
자세히, 통신 프로세서(130)는, 콘텐츠 출력 환경을 구현하기 위한 콘텐츠 소스를 저장한 소정의 컴퓨팅 장치와 통신할 수 있으며, 사용자 입력을 받은 컨트롤러와 같은 다양한 사용자 입력 컴포넌트와 통신할 수 있다. In detail, the communication processor 130 may communicate with a predetermined computing device that stores a content source for implementing a content output environment, and may communicate with various user input components such as a controller that receives user input.
실시예에서, 통신 프로세서(130)는, 맞춤형 콘텐츠와 관련된 각종 데이터를 타 콘텐츠 제공 장치(100) 및/또는 외부의 서버 등과 송수신할 수 있다. In an embodiment, the communication processor 130 may transmit and receive various data related to customized content to another content providing device 100 and/or an external server.
자세히, 실시예에서 통신 프로세서(130)는, OTT(Over The Top, 온라인 동영상 서비스)를 이용하여 타 외부장치 및 외부서버 등과 통신함으로써 유저가 선택한 아이템에 대한 콘텐츠를 수신할 수 있다.In detail, in the embodiment, the communication processor 130 may receive content for the item selected by the user by communicating with other external devices and external servers using OTT (Over The Top, online video service).
이러한 통신 프로세서(130)는, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced),5G NR(New Radio), WIFI) 또는 근거리 통신방식 등을 수행할 수 있는 통신장치를 통해 구축된 이동 통신망 상에서 기지국, 외부의 콘텐츠 제공 장치(100), 임의의 서버 중 적어도 하나와 무선으로 데이터를 송수신할 수 있다.This communication processor 130 uses technical standards or communication methods for mobile communication (e.g., Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G New Radio (NR), WIFI). Alternatively, data can be transmitted and received wirelessly with at least one of a base station, an external content providing device 100, and an arbitrary server on a mobile communication network established through a communication device capable of performing short-distance communication.
센서 시스템(160)은, 이미지 센서(161) 및 오디오 센서(165) 등 다양한 센서를 포함할 수 있다. The sensor system 160 may include various sensors, such as an image sensor 161 and an audio sensor 165.
여기서, 이미지 센서(161)는, 콘텐츠 제공 장치(100) 주위의 물리적 공간에 대한 이미지 및/또는 영상을 캡처할 수 있다. Here, the image sensor 161 may capture images and/or videos of the physical space around the content providing device 100.
실시예에서, 이미지 센서(161)는, 맞춤형 콘텐츠와 관련된 영상(실시예로, 유저의 얼굴인식 영상, 얼굴 정면뷰 영상 등)을 촬영하여 획득할 수 있다. In an embodiment, the image sensor 161 may capture and obtain images related to customized content (e.g., a user's face recognition image, a front view image of the face, etc.).
또한, 이미지 센서(161)는, 콘텐츠 제공 장치(100)의 전면 또는/및 후면에 배치되어 배치된 방향측을 촬영하여 영상을 획득할 수 있으며, 콘텐츠 제공 장치(100)의 외부를 향해 배치된 카메라를 통해 물리적 공간을 촬영할 수 있다. In addition, the image sensor 161 is disposed on the front or/and rear of the content providing device 100 and can acquire an image by photographing the direction in which it is placed, and is disposed toward the outside of the content providing device 100. You can photograph physical space through a camera.
이때, 실시예에서 카메라는, 유저의 얼굴 위치를 인지하여 각도를 조정할 수 있도록 소정의 각도 조정이 가능한 형태로 구현되는 카메라일 수 있다.At this time, in the embodiment, the camera may be a camera implemented in a form capable of adjusting a predetermined angle so as to recognize the position of the user's face and adjust the angle.
또한, 실시예에서 카메라는 소정의 각도를 조정하는 역할을 수행하기 위한 모터를 더 포함할 수 있다.Additionally, in an embodiment, the camera may further include a motor to adjust a predetermined angle.
이러한 이미지 센서(161)는, 이미지 센서장치와 영상 처리 모듈을 포함할 수 있다. 자세히, 이미지 센서(161)는, 이미지 센서장치(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. This image sensor 161 may include an image sensor device and an image processing module. In detail, the image sensor 161 can process still images or moving images obtained by an image sensor device (eg, CMOS or CCD).
또한, 이미지 센서(161)는, 영상 처리 모듈을 이용하여 이미지 센서장치를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.Additionally, the image sensor 161 may use an image processing module to process still images or moving images obtained through the image sensor device to extract necessary information and transmit the extracted information to the processor.
이러한 이미지 센서(161)는, 적어도 하나 이상의 카메라를 포함하는 카메라 어셈블리일 수 있다. 카메라 어셈블리는, 가시광선 대역을 촬영하는 일반 카메라를 포함할 수 있으며, 적외선 카메라, 스테레오 카메라 등의 특수 카메라를 더 포함할 수 있다. This image sensor 161 may be a camera assembly including at least one camera. The camera assembly may include a general camera that photographs a visible light band, and may further include a special camera such as an infrared camera or a stereo camera.
또한, 위와 같은 이미지 센서(161)는, 실시예에 따라서 콘텐츠 제공 장치(100)에 포함되어 동작할 수도 있고, 외부의 장치(예컨대, 외부의 서버 등)에 포함되어 상술된 통신 프로세서(130) 등에 기초한 연동을 통하여 동작할 수도 있다. In addition, the image sensor 161 as described above may be included and operated in the content providing device 100, depending on the embodiment, or may be included in an external device (e.g., an external server, etc.) to operate as the above-described communication processor 130. It may also operate through linkage based on etc.
오디오 센서(165)는, 콘텐츠 제공 장치(100) 주변의 소리를 인식할 수 있다. The audio sensor 165 can recognize sounds around the content providing device 100.
자세히, 오디오 센서(165)는, 콘텐츠 제공 장치(100)을 사용하는 사용자의 음성 입력 및/또는 콘텐츠 제공 장치(100)의 주변 환경으로부터 감지되는 오디오 신호 등을 감지할 수 있는 마이크로���을 포함할 수 있다. In detail, the audio sensor 165 may include a microphone capable of detecting a voice input from a user using the content providing device 100 and/or an audio signal detected from the surrounding environment of the content providing device 100. there is.
결제부(140)는, 콘텐츠 제공 장치(100)를 통해 유저가 선택한 소정의 아이템을 구매 및 이용하는 비용에 대한 결제와 관련된 행위 전반을 수행할 수 있다.The payment unit 140 may perform all actions related to payment for the cost of purchasing and using a certain item selected by the user through the content providing device 100.
상기 결제부(140)는 자판기라면 어느 것이든지 갖추어야 하는 것으로서, 실시예에서 결제부(140)는 현금 투입구, 카드 투입구, 카드 리더기 및 투입금액 인식부 등을 포함할 수 있으나 결제와 관련된 행위를 수행하는 구성이라면 어느 구성도 추가될 수 있다.The payment unit 140 must be equipped with any vending machine. In the embodiment, the payment unit 140 may include a cash slot, a card slot, a card reader, and an input amount recognition unit, but performs actions related to payment. Any configuration can be added.
입력 시스템(150)은 맞춤형 콘텐츠와 관련된 사용자의 입력(예를 들어, 제스처, 음성 명령, 버튼의 작동 또는 다른 유형의 입력)을 감지할 수 있다.Input system 150 may detect a user's input (e.g., a gesture, voice command, actuation of a button, or other type of input) related to customized content.
자세히, 입력 시스템(150)은 소정의 버튼, 터치 센서 및/또는 사용자 모션 입력을 수신하는 이미지 센서(161) 등을 포함할 수 있다. In detail, the input system 150 may include a predetermined button, a touch sensor, and/or an image sensor 161 that receives a user motion input.
상기 입력 시스템(150)은 자판기라면 어느 것이든지 갖추어야 하는 것으로서, 실시예에서 입력 시스템(150)은 버튼, 터치 센서 및 터치 스크린으로 구현될 수 있으나 유저가 선택하는 아이템에 대한 입력을 수행할 수 있는 구성이라면 어느 구성도 추가될 수 있다.The input system 150 must be equipped with any vending machine. In the embodiment, the input system 150 may be implemented with a button, a touch sensor, and a touch screen, but it can be used to input an item selected by the user. Any configuration can be added.
디스플레이 시스템(170)은, 맞춤형 콘텐츠와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. The display system 170 can output various information related to customized content as graphic images.
실시예에서, 디스플레이 시스템(170)은, 디스플레이를 이용하여 유저의 얼굴인식 영상, 얼굴 정면뷰 영상, 촬영위치 피드백 정보, 피드백 메시지 및 아이템 콘텐츠 등을 표시할 수 있다. In an embodiment, the display system 170 may display a user's face recognition image, a frontal view image of the face, shooting location feedback information, a feedback message, and item content using a display.
이러한 디스플레이는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.These displays include liquid crystal display (LCD), thin film transistor-liquid crystal display (TFT LCD), organic light-emitting diode (OLED), and flexible display. , a 3D display, or an e-ink display.
이러한 콘텐츠 제공 장치(100)의 하우징 내에는 상기 구성요소들이 배치�� 수 있으며, 사용자 인터페이스는 사용자 터치 입력을 수신하도록 구성된 디스플레이(171) 상에 터치 센서(173)를 포함할 수 있다. The above components may be disposed within the housing of the content providing device 100, and the user interface may include a touch sensor 173 on the display 171 configured to receive user touch input.
자세히, 디스플레이 시스템(170)은, 이미지를 출력하는 디스플레이(171)와, 사용자의 터치 입력을 감지하는 터치 센서(173)를 포함할 수 있다.In detail, the display system 170 may include a display 171 that outputs an image and a touch sensor 173 that detects a user's touch input.
예시적으로 디스플레이(171)는 터치 센서(173)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 콘텐츠 제공 장치(100)과 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 콘텐츠 제공 장치(100)과 사용자 사이의 출력 인터페이스를 제공할 수 있다.For example, the display 171 may be implemented as a touch screen by forming a mutual layer structure or being integrated with the touch sensor 173. This touch screen can function as a user input unit that provides an input interface between the content providing device 100 and the user, and at the same time, can provide an output interface between the content providing device 100 and the user.
토출부(180)는, 콘텐츠 제공 장치(100)를 이용한 유저에게 제공될 수 있는 소정의 물품을 장치 외부로 배출할 수 있다.The discharge unit 180 may discharge a predetermined product that can be provided to a user using the content providing device 100 to the outside of the device.
상기 토출부(180)는, 자판기라면 어느 것이든지 갖추어야 하는 것으로서, 실시예에서 토출부(180)는 유저가 구매한 물품, 거스름돈 및 영수증 등을 장치 외부로 배출할 수 있으며 토출과 관련된 행위를 수행하는 구성이라면 어느 구성으로라도 구현될 수 있다.The discharge unit 180 must be provided in any vending machine. In the embodiment, the discharge unit 180 can discharge items purchased by the user, change, receipts, etc., to the outside of the device and perform actions related to the discharge. It can be implemented in any configuration.
한편, 본 발명의 실시예에 따른 콘텐츠 제공 장치(100)는, 딥러닝 뉴럴 네트워크(Deep-learning Neural Network)와 연동하여 맞춤형 콘텐츠 제공에 필요한 딥러닝을 수행할 수 있다. Meanwhile, the content providing device 100 according to an embodiment of the present invention can perform deep learning necessary for providing customized content by linking with a deep-learning neural network.
여기서, 실시예에 따른 상기 딥러닝 뉴럴 네트워크는, 컨볼루션 뉴럴 네트워크(CNN, Convolution Neural Network), R-CNN(Regions with CNN features), Fast R-CNN, Faster R-CNN 및/또는 Mask R-CNN 등을 포함할 수 있으며, 후술되는 실시예를 수행할 수 있는 알고리즘을 포함하는 딥러닝 뉴럴 네트워크라면 어떠한 것이든 포함할 수 있으며, 본 발명의 실시예에서는 이러한 딥러닝 뉴럴 네트워크 자체를 한정하거나 제한하지는 않는다.Here, the deep learning neural network according to the embodiment is a convolutional neural network (CNN), Regions with CNN features (R-CNN), Fast R-CNN, Faster R-CNN, and/or Mask R- It may include CNN, etc., and may include any deep learning neural network that includes an algorithm capable of performing embodiments described later, and in embodiments of the present invention, such deep learning neural network itself is limited or restricted. I don't.
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 상술한 딥러닝 뉴럴 네트워크를 기초로 한 Pose Estimation Model 및 Gaze Estimation Model을 이용하여 맞춤형 콘텐츠 제공에 필요한 딥러닝을 수행할 수 있다.In detail, in the embodiment, the content providing device 100 may perform deep learning necessary for providing customized content using the Pose Estimation Model and Gaze Estimation Model based on the deep learning neural network described above.
이때, Pose Estimation Model은 Whole-Body Human Pose Estimation in the Wild 및 RMPE: Regional Multi-Person Pose Estimation 논문을 이용하여 설계한 모델이다.At this time, the Pose Estimation Model is a model designed using the papers Whole-Body Human Pose Estimation in the Wild and RMPE: Regional Multi-Person Pose Estimation.
또한, Gaze Estimation Model은 Learning to Find Eye Region Landmarks for Remote Gaze Estimation in Unconstrained Settings 및 Gaze360: Physically Unconstrained Gaze Estimation in the Wild 논문을 이용하여 설계한 모델이다.Additionally, the Gaze Estimation Model is a model designed using the papers Learning to Find Eye Region Landmarks for Remote Gaze Estimation in Unconstrained Settings and Gaze360: Physically Unconstrained Gaze Estimation in the Wild.
이러한 딥러닝 기술을 이용하여, 실시예에 따른 콘텐츠 제공 장치(100)는, 유저의 초기 카메라 위치를 실시간으로 자동 조정할 수 있다.Using this deep learning technology, the content providing device 100 according to the embodiment can automatically adjust the user's initial camera position in real time.
또한, 이러한 딥러닝 기술을 이용하여, 실시예에 따른 콘텐츠 제공 장치(100)는, 실시간으로 시선 추적 대상이 되는 유저를 판단하고 자동으로 상기 유저의 시선을 추적할 수 있다.In addition, using such deep learning technology, the content providing device 100 according to the embodiment can determine the user who is the target of gaze tracking in real time and automatically track the gaze of the user.
도 2는 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치(100)를 설명하기 위한 도면의 일례이다.Figure 2 is an example of a diagram for explaining a device 100 that provides customized content based on gaze recognition according to an embodiment of the present invention.
도 2를 참조하면, 콘텐츠 제공 장치(100)는, 일측에 결제부(140), 이미지 센서(161), 디스플레이(171) 및 토출부(180)를 포함할 수 있다.Referring to FIG. 2 , the content providing device 100 may include a payment unit 140, an image sensor 161, a display 171, and a discharge unit 180 on one side.
이미지 센서(161)는, 유저(1)의 시선을 인식하기 위하여 유저(1)에게 판매하고자 하는 아이템 및 아이템 이미지가 진열된 일측과 동일한 일측에 포함될 수 있다. The image sensor 161 may be included on the same side as the side where the items and item images to be sold to the user 1 are displayed in order to recognize the gaze of the user 1.
또한, 디스플레이(171)는, 콘텐츠 디스플레이(171-1) 및 아이템 디스플레이(171-2)를 포함할 수 있다.Additionally, the display 171 may include a content display 171-1 and an item display 171-2.
실시예에서 콘텐츠 디스플레이(171-1)란, 유저(1)의 시선을 인식하여 유저(1)의 시선이 도달하는 아이템에 대한 상품정보를 포함하는 콘텐츠가 출력되는 디스플레이를 의미한다.In the embodiment, the content display 171-1 refers to a display that recognizes the gaze of the user 1 and outputs content including product information about the item that the user 1 gazes at.
또한, 실시예에서 아이템 디스플레이(171-2)란, 유저(1)에게 판매하고자 하는 아이템을 대표하는 이미지가 출력되는 디스플레이를 의미한다. 이때, 아이템 디스플레이(171-2) 영역 내에는 소정의 버튼이 위치하거나 상기 영역의 일부 또는 전부에 터치 센서(173)가 내장될 수 있다.Additionally, in the embodiment, the item display 171-2 refers to a display on which an image representing an item to be sold to the user 1 is output. At this time, a predetermined button may be located within the item display 171-2 area, or a touch sensor 173 may be built into part or all of the area.
즉, 이에 따라 콘텐츠 제공 장치(100)는, 아이템 디스플레이(171-2)를 기초로 유저(1)의 입력을 수신할 수 있는 사용자 인터페이스를 제공할 수 있다.That is, according to this, the content providing device 100 can provide a user interface capable of receiving input from the user 1 based on the item display 171-2.
또한, 결제부(140) 및 토출부(180)는 유저(1)가 사용하기 용이한 위치라면 콘텐츠 제공 장치(100)상 어디든 위치할 수 있고, 도시된 바에 한정하는 것은 아니다.Additionally, the payment unit 140 and the discharge unit 180 may be located anywhere on the content providing device 100 as long as it is convenient for the user 1 to use, and are not limited to what is shown.
- 콘텐츠 제공 장치(100)가 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법 - How the content providing device 100 provides customized content based on gaze recognition
이하, 본 발명의 실시예에 따라 적어도 하나 이상의 프로세서를 포함하는 프로세서 어셈블리(120)에 의하여 실행되는 콘텐츠 제공 장치(100)가 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법을 첨부된 도 3 내지 도 7을 참조하여 상세히 설명한다. Hereinafter, a method of providing customized content based on gaze recognition by the content providing device 100 executed by the processor assembly 120 including at least one processor according to an embodiment of the present invention will be described in FIGS. 3 to 7. Please refer to and explain in detail.
도 3은 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법을 설명하기 위한 흐름도이다.Figure 3 is a flowchart illustrating a method of providing customized content based on gaze recognition according to an embodiment of the present invention.
도 3을 참조하면, 콘텐츠 제공 장치(100)는, 유저(1)의 접근을 인식할 수 있다. (S101)Referring to FIG. 3, the content providing device 100 can recognize the approach of the user 1. (S101)
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 상기 장치(100)에 부착된 이미지 센서(161)를 이용하여 유저(1)의 접근을 인식할 수 있다.In detail, in the embodiment, the content providing device 100 may recognize the approach of the user 1 using the image sensor 161 attached to the device 100.
이때, 실시예에서 콘텐츠 제공 장치(100)는, 기설정된 정상 접근 기준정보에 부합하도록 유저(1)의 상태를 변동시킬 수 있다. At this time, in the embodiment, the content providing device 100 may change the state of the user 1 to comply with preset normal access standard information.
여기서, 실시예에 따른 정상 접근 기준정보는, 콘텐츠 제공 장치(100)를 이용하고자 하는 유저(1)에게 요구되는 초기 위치정보 및 초기 용모정보를 포함할 수 있다.Here, the normal access standard information according to the embodiment may include initial location information and initial appearance information required for the user 1 who wants to use the content providing device 100.
이때, 초기 위치정보란, 유저(1)의 배치 상태(실시예로, 위치 및 각도 등)을 안내하는 정보일 수 있다. 또한, 초기 용모정보란, 유저(1)의 용모 상태(실시예로, 눈 및 얼굴의 인식을 위한 용모)를 안내하는 정보일 수 있다.At this time, the initial location information may be information that guides the placement status of the user 1 (eg, location and angle, etc.). Additionally, the initial appearance information may be information that guides the appearance state of the user 1 (for example, appearance for eye and face recognition).
자세히, 콘텐츠 제공 장치(100)는, 상기 장치 관리자의 설정 및 기설정된 프로세스에 따라서 소정의 초기 위치정보 및 초기 용모정보를 기구축할 수 있다.In detail, the content providing device 100 may construct predetermined initial location information and initial appearance information according to the settings of the device manager and a preset process.
실시예로, 초기 위치정보는, 유저(1)의 얼굴을 촬영할 수 있는 소정의 위치를 안내하도록 기설정될 수 있다. 또한, 초기 용모정보는, 유저(1)가 콘텐츠 제공 장치(100)를 이용하면서 유지하도록 요구되는 소정의 ���모 상태(예컨대 모자 및 선글라스 등을 미착용한 상태 등)를 안내하도록 기설정될 수 있다.In an embodiment, the initial location information may be preset to guide a predetermined location where the face of the user 1 can be photographed. Additionally, the initial appearance information may be preset to guide the user 1 to a predetermined appearance state (e.g., not wearing a hat or sunglasses, etc.) that the user 1 is required to maintain while using the content providing device 100.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 위와 같이 기설정된 정상 접근 기준정보를 기초로 접근 피드백 정보를 생성하여 디스플레이(171)를 통해 출력하여 유저(1)에게 제공할 수 있다.Additionally, in the embodiment, the content providing device 100 may generate access feedback information based on the preset normal access standard information as described above, output the access feedback information through the display 171, and provide it to the user 1.
여기서, 접근 피드백 정보란, 유저(1)의 모습 촬영 시 촬영환경 조건을 충족하는 위치에서 얼굴인식 영상을 획득하도록 유저(1)의 상태(실시예에서, 위치, 각도 및 용모 등)의 조정/변경을 안내하는 정보를 의미할 수 있다.Here, the approach feedback information refers to adjusting/adjusting the status of the user 1 (in the embodiment, position, angle, appearance, etc.) to obtain a face recognition image at a location that satisfies the shooting environment conditions when photographing the user 1. It may refer to information guiding change.
이때, 촬영환경 조건은, 콘텐츠 제공 장치(100)를 이용하는 유저(1)의 얼굴영역을 용이하게 추정하기 위한 조건으로서, 실시예에서는 유저(1)의 얼굴 키포인트 및 시선정보를 획득하기 용이한 조건일 수 있고 이에 대한 자세한 설명은 후술하도록 한다.At this time, the shooting environment conditions are conditions for easily estimating the facial area of the user 1 using the content providing device 100, and in the embodiment, conditions are conditions for easily obtaining the facial key points and gaze information of the user 1. This may be possible, and a detailed explanation of this will be provided later.
예를 들어, 도 2를 다시 참조하면, 콘텐츠 제공 장치(100)는, 촬영환경 조건과 관련된 “Area 안에 위치하세요.”, “이미지 센서(161)를 바라보세요.” 및 “모자를 벗어주세요.” 등과 같은 접근 피드백 정보를 디스플레이(171)를 통해 텍스트화하여 출력함으로써 유저(1)의 위치, 각도 및 용모를 조정할 수 있다.For example, referring again to FIG. 2, the content providing device 100 may display commands such as “Locate within the area” and “Look at the image sensor 161” related to shooting environment conditions. and “Please take off your hat.” The position, angle, and appearance of the user 1 can be adjusted by outputting approach feedback information such as text through the display 171.
이와 같은 방법으로, 실시예에서 콘텐츠 제공 장치(100)는, 이미지 센서(161)를 이용하여 유저(1)의 얼굴인식 영상(10)을 촬영 및 획득할 수 있다.In this way, in the embodiment, the content providing device 100 can photograph and obtain the facial recognition image 10 of the user 1 using the image sensor 161.
이때, 실시예에서 얼굴인식 영상(10)이란, 유저의 얼굴영역을 판단하기 위해 유저가 콘텐츠 제공 장치(100)와 소정 거리 가까이 접근했을 때 유저의 얼굴을 인식한 영상을 의미한다.At this time, in the embodiment, the face recognition image 10 refers to an image that recognizes the user's face when the user approaches the content providing device 100 at a predetermined distance in order to determine the user's face area.
다음으로, 실시예에서 콘텐츠 제공 장치(100)는, 카메라 앵글을 조정하여 얼굴 정면뷰 영상을 획득할 수 있다. (S103)Next, in the embodiment, the content providing device 100 may obtain a front view image of the face by adjusting the camera angle. (S103)
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 얼굴인식 영상(10)을 기초로 딥러닝 모델을 통해 유저의 얼굴영역을 판단하고 이에 따라 카메라에 포함된 모터를 이용하여 카메라의 위치 및 앵글을 조정함으로써 얼굴 정면뷰 영상을 획득할 수 있다.In detail, in the embodiment, the content providing device 100 determines the user's face area through a deep learning model based on the face recognition image 10 and adjusts the position and angle of the camera accordingly using a motor included in the camera. By adjusting, a frontal view image of the face can be obtained.
이때, 콘텐츠 제공 장치(100)는, 딥러닝 모델 중 Pose Estimation Model을 이용하여 유저(1)의 얼굴 키포인트를 검출할 수 있다.At this time, the content providing device 100 may detect the facial keypoint of the user 1 using the Pose Estimation Model among deep learning models.
도 4는 본 발명의 실시예에 따른 얼굴 키포인트(key point)(30)를 추정하는 방법을 설명하기 위한 도면의 일례이다.FIG. 4 is an example of a diagram illustrating a method for estimating a facial key point 30 according to an embodiment of the present invention.
도 4를 참조하면, 콘텐츠 제공 장치(100)는, 획득한 유저(1)의 얼굴인식 영상(10)을 기초로 딥러닝 분석을 수행하여 얼굴인식 영상(10) 내 얼굴 키포인트(30)를 검출할 수 있다.Referring to FIG. 4, the content providing device 100 performs deep learning analysis based on the acquired facial recognition image 10 of the user 1 to detect the facial key point 30 in the facial recognition image 10. can do.
여기서, 실시예에 따른 얼굴 키포인트(30)는, 유저(1)의 얼굴 형상을 특정할 수 있는 적어도 하나 이상의 키포인트 및 서브 키포인트(31)를 포함할 수 있다. Here, the facial key point 30 according to the embodiment may include at least one key point and a sub key point 31 that can specify the facial shape of the user 1.
실시예로, 상기 얼굴 키포인트(30)는, 응시자의 눈 형상을 특정하는 눈 키포인트, 코 형상을 특정하는 코 키포인트, 입 형상을 특정하는 입 키포인트 및/또는 귀 형상을 특정하는 귀 키포인트 등을 포함하며, 상술한 적어도 하나 이상의 키포인트는 서브 키포인트(31)로 연결될 수 있다.In an embodiment, the face keypoint 30 includes an eye keypoint that specifies the eye shape of the applicant, a nose keypoint that specifies the nose shape, a mouth keypoint that specifies the mouth shape, and/or an ear keypoint that specifies the ear shape, etc. And, at least one key point described above may be connected to a sub key point 31.
즉, 실시예에서 콘텐츠 제공 장치(100)는, 소정의 딥러닝 뉴럴 네트워크와 연동하여 얼굴인식 영상(10)으로부터 유저(1)의 얼굴 키포인트를 추출하는 검출 딥러닝을 수행할 수 있다. That is, in the embodiment, the content providing device 100 may perform detection deep learning to extract facial keypoints of the user 1 from the facial recognition image 10 in conjunction with a predetermined deep learning neural network.
또한, 콘텐츠 제공 장치(100)는, 상기 딥러닝 뉴럴 네트워크의 출력 데이터로서 상기 추출된 유저(1)의 복수의 얼굴 키포인트를 기초로 유저(1)의 얼굴 방향 및 각도 등을 포함하는 정보인 얼굴 포즈정보를 획득할 수 있다. In addition, the content providing device 100 provides the face information including the direction and angle of the face of the user 1 based on the plurality of facial key points of the extracted user 1 as output data of the deep learning neural network. Pose information can be obtained.
즉, S101 단계에서 상술한 촬영환경 조건은, 유저(1)의 얼굴 형상을 특정하는 얼굴 키포인트(30)를 모두 포함하는 조건과, 상기 얼굴 키포인트(30)에 기초한 픽셀면적이 소정의 기���(예컨대, 기설정된 픽셀면적 이상 및 얼굴인식 영상(10) 전체 픽셀면적 대비 기설정된 비율 이상 등)을 충족하는 조건을 포함할 수 있다.That is, the shooting environment conditions described above in step S101 include conditions including all facial key points 30 that specify the facial shape of the user 1, and pixel areas based on the facial key points 30 set to a predetermined standard (e.g. , a preset pixel area or more, a preset ratio to the total pixel area of the face recognition image 10, etc.) may be included.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 검출된 유저(1)의 얼굴 키포인트를 기초로 유저(1)의 얼굴 방향 및 각도 등을 포함하는 정보인 얼굴 포즈정보를 획득할 수 있다.Additionally, in the embodiment, the content providing device 100 may obtain facial pose information, which is information including the direction and angle of the face of the user 1, based on the detected facial keypoint of the user 1.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 획득된 유저(1)의 얼굴 포즈정보를 기초로 이미지 센서를 제어할 수 있다.Additionally, in the embodiment, the content providing device 100 may control the image sensor based on the acquired facial pose information of the user 1.
이미지 센서 제어를 수행하기 위해, 콘텐츠 제공 장치(100)는, 소정의 얼굴 키포인트를 기초로 한 표준 정면 얼굴영역 정보를 설정해놓을 수 있다. In order to perform image sensor control, the content providing device 100 may set standard frontal facial area information based on a predetermined facial key point.
실시예로, 콘텐츠 제공 장치(100)는, 소정의 얼굴 키포인트 간 군집도(실시예로, 소정의 길이(예컨대, 간격 0.1cm 및 오차범위 ±5% 등)의 기준 간격, 소정의 넓이(예컨대, 3제곱센치미터(cm2) 및 오차범위 ±5% 등)의 기준 면적 등), 소정의 얼굴 키포인트의 개수 및/또는 존재유무 등을 포함하는 표준 정면 얼굴영역 정보를 기 설정해놓을 수 있다.In an embodiment, the content providing device 100 may determine a clustering degree between predetermined facial keypoints (e.g., a standard interval of a predetermined length (e.g., 0.1 cm interval and ±5% error range, etc.), and a predetermined area (e.g., , standard area of 3 square centimeters (cm 2 ) and error range of ±5%, etc.), standard frontal facial area information including the number and/or presence or absence of certain facial key points, etc. can be preset.
즉, 콘텐츠 제공 장치(100)는, 획득된 유저(1)의 얼굴 포즈정보 및 기 설정된 표준 정면 얼굴영역 정보를 비교하여, 오차값에 따라 상기 얼굴 포즈정보를 획득할 수 있다. That is, the content providing device 100 may compare the acquired facial pose information of the user 1 and preset standard frontal facial area information and obtain the facial pose information according to the error value.
또한, 콘텐츠 제공 장치(100)는, 상기 획득된 얼굴 포즈정보를 토대로 상술된 이미지 센서를 제어함으로써 유저(1)의 얼굴 정면 모습을 포함하는 얼굴 정면뷰 영상을 획득할 수 있다.Additionally, the content providing device 100 may obtain a front view image of the face including the front view of the face of the user 1 by controlling the above-described image sensor based on the acquired facial pose information.
또한, 촬영환경 조건에 따라 실시예에서 콘텐츠 제공 장치(100)는, 얼굴인식 영상(10)에 인식된 유저(1)의 얼굴영역(FA)이 복수개인 경우, 인식된 복수개의 얼굴영역(FA) 중 소정의 크기(예컨대, 3제곱센치미터(cm2)) 이하인 얼굴영역(FA)을 판단 대상에서 제외할 수 있다. In addition, according to the conditions of the shooting environment, in the embodiment, the content providing device 100 may select a plurality of facial areas (FA) of the user 1 recognized in the face recognition image 10. ), a facial area (FA) smaller than a predetermined size (e.g., 3 square centimeters (cm 2 )) may be excluded from the judgment.
예컨대, 콘텐츠 제공 장치(100)를 이용하고자 하는 유저가 2명 이상이고 이용 차례가 아닌 유저의 얼굴영역이 인식된 경우, 상기 이용 차례가 아닌 유저의 얼굴영역을 판단 대상에서 제외함으로써, 이용 차례인 유저의 얼굴영역(FA)만을 인식할 수 있다.For example, when there are two or more users who want to use the content providing device 100 and the face area of the user who is not in their turn to use is recognized, the face area of the user who is not in their turn to use is excluded from the judgment, so that the face area of the user who is not in their turn to use is recognized. Only the user's facial area (FA) can be recognized.
또한, 콘텐츠 제공 장치(100)는, 유저(1)의 얼굴영역(FA)을 실시간 및 자동으로 판단할 수 있으며, 이에 따라 카메라의 앵글을 실시간 및 자동으로 변경할 수 있다.Additionally, the content providing device 100 can determine the facial area (FA) of the user 1 in real time and automatically, and change the camera angle in real time and automatically accordingly.
즉, 콘텐츠 제공 장치(100)는, 판단된 유저(1)의 얼굴영역(FA)을 정상적으로 인식하기 위해 카메라에 포함된 모터를 이용하여 카메라의 시야각을 변동시킴으로써 실시간 및 자동으로 유저(1)에 맞게 카메라의 앵글을 조정할 수 있다.In other words, the content providing device 100 changes the viewing angle of the camera using a motor included in the camera to normally recognize the determined facial area (FA) of the user 1 in real time and automatically. You can adjust the camera angle to suit.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 카메라의 앵글을 조정함으로써 유저(1)의 얼굴 정면뷰 영상을 획득할 수 있다.Additionally, in the embodiment, the content providing device 100 may obtain a front view image of the face of the user 1 by adjusting the angle of the camera.
이때, 얼굴 정면뷰 영상(20)이란, 유저(1)의 시선정보(40)를 획득하기 위한 것으로, 얼굴인식 영상(10)을 기초로 유저의 눈, 코, 입이 잘 나타나도록 카메라의 앵글을 조정함으로써 획득된 유저(1)의 얼굴 정면 모습을 포함한 영상을 의미할 수 있다. At this time, the front view image 20 of the face is used to obtain gaze information 40 of the user 1, and the angle of the camera is such that the user's eyes, nose, and mouth are clearly visible based on the face recognition image 10. It may refer to an image including the front view of the face of the user 1 obtained by adjusting .
다음으로, 실시예에서 콘텐츠 제공 장치(100)는, 유저(1)의 시선을 추적하여 시선정보(40)를 생성할 수 있다. (S105)Next, in the embodiment, the content providing device 100 may generate gaze information 40 by tracking the gaze of the user 1. (S105)
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 유저(1)의 얼굴영역(FA)에 포함된 눈 키포인트(30-E)를 기초로 유저(1)의 시선을 추적하여 시선정보(40)를 생성할 수 있다.In detail, in the embodiment, the content providing device 100 tracks the gaze of the user 1 based on the eye key point 30-E included in the face area (FA) of the user 1 and provides gaze information 40. can be created.
여기서 시선정보(40)란, 유저(1)의 시선 위치, 시선 방향 및 시선 고정 시간(예컨대, 초(second)) 등을 추정한 정보로, 유저(1)의 시선과 관련된 다양한 정보를 포함할 수 있다.Here, the gaze information 40 is information that estimates the gaze position, gaze direction, and gaze fixation time (e.g., seconds) of the user 1, and may include various information related to the gaze of the user 1. You can.
즉, 실시예에서 콘텐츠 제공 장치(100)는, 유저(1)의 얼굴 정면뷰 영상(20)을 기초로 유저(1)의 시선 방향을 추적함으로써 유저(1)의 시선정보(40)를 생성할 수 있다.That is, in the embodiment, the content providing device 100 generates the gaze information 40 of the user 1 by tracking the gaze direction of the user 1 based on the front view image 20 of the user 1's face. can do.
도 5는 본 발명의 실시예에 따른 시선 방향을 추적하기 위한 시선정보(40)를 설명하기 위한 도면의 일례이다.Figure 5 is an example of a drawing for explaining gaze information 40 for tracking gaze direction according to an embodiment of the present invention.
도 5를 참조하면, 실시예에서 콘텐츠 제공 장치(100)는, 얼굴 정면뷰 영상(20)에 포함된 눈 키포인트(30-E)를 기초로 유저(1)의 시선 방향을 추적할 수 있다.Referring to FIG. 5 , in the embodiment, the content providing device 100 may track the gaze direction of the user 1 based on the eye keypoint 30-E included in the front view image 20 of the face.
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 얼굴 정면뷰 영상(20)이 포함하는 복수의 얼굴 키포인트(30) 중에서, 유저(1)의 시선정보를 제공하는 눈 키포인트(30-E)를 기초로 유저(1)의 시선 방향을 추적할 수 있다.In detail, in the embodiment, the content providing device 100 selects the eye keypoint 30-E, which provides gaze information of the user 1, from among the plurality of facial keypoints 30 included in the frontal view image 20 of the face. As a basis, the gaze direction of the user (1) can be tracked.
이때, 얼굴 정면뷰 영상(10)은 유저(1)가 콘텐츠 제공 장치(100)를 이용하면서 구매 결정을 내리는 동안의 모습을 포함하고, 눈 키포인트(30-E)는, S103 단계의 소정의 딥러닝 학습 과정(실시예에서, Pose Estimation Model을 이용)을 거쳐 얼굴영역(FA)에서 눈의 위치를 추정함으로써 검출될 수 있다. At this time, the face front view image 10 includes the user 1 while making a purchase decision while using the content providing device 100, and the eye key point 30-E is a predetermined deep view in step S103. It can be detected by estimating the position of the eyes in the face area (FA) through a learning process (in the example, using the Pose Estimation Model).
또한, 실시예에서 콘텐츠 제공 장치(100)는, 검출되는 눈 키포인트(30-E)를 통해 유저(1)의 시선을 지속적으로 추적한 정보인 시선정보(40)를 생성할 수 있다.Additionally, in the embodiment, the content providing device 100 may generate gaze information 40, which is information that continuously tracks the gaze of the user 1 through the detected eye keypoint 30-E.
여기서, 실시예에서 콘텐츠 제공 장치(100)는, 소정의 딥러닝 학습 과정(실시예에서, Gaze Estimation Model�� 이용)을 거쳐 유저(1)의 시선 위치 및 방향을 추정하여 시선정보(40)를 생성할 수 있다.Here, in the embodiment, the content providing device 100 estimates the gaze position and direction of the user 1 through a predetermined deep learning learning process (in the embodiment, using a Gaze Estimation Model) and provides gaze information 40. can be created.
이때, 실시예에서 콘텐츠 제공 장치(100)는, 생성된 시선정보(40)에 포함된 유저(1)의 시선 고정 시간이 소정의 시간 이상(예컨대, 0.5초 이상 등)인 경우, 상기 시선 고정 시간을 관심시간으로 설정할 수 있다.At this time, in the embodiment, if the gaze fixation time of the user 1 included in the generated gaze information 40 is longer than a predetermined time (for example, 0.5 seconds or longer, etc.), the content providing device 100 fixes the gaze. You can set the time as the time of interest.
여기서, 실시예에서 콘텐츠 제공 장치(100)는, 관심시간으로 설정된 시선 고정 시간이 복수인 경우, 그 중 가장 긴 시간만을 관심시간으로 간주하여 설정할 수 있다.Here, in the embodiment, the content providing device 100 may consider and set only the longest time among the gaze fixation times set as the time of interest as the time of interest.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 생성된 시선정보(40)를 기초로 관심영역을 판단할 수 있다. (S107)Additionally, in the embodiment, the content providing device 100 may determine the area of interest based on the generated gaze information 40. (S107)
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 생성된 시선정보(40)에 포함된 관심시간을 기초로 관심영역을 판단할 수 있다.In detail, in the embodiment, the content providing device 100 may determine the area of interest based on the time of interest included in the generated gaze information 40.
도 6은 본 발명의 실시예에 따른 시선정보(40)를 기초로 관심영역을 설정하는 방법을 설명하기 위한 도면의 일례이다.Figure 6 is an example of a diagram for explaining a method of setting a region of interest based on gaze information 40 according to an embodiment of the present invention.
도 6을 참조하면, 콘텐츠 제공 장치(100)는, 유저(1)가 콘텐츠 제공 장치(100)의 아이템 디스플레이(171-2) 상에 출력된 적어도 하나 이상의 아이템 중 어떤 아이템을 응시했는지 시선정보(40)에 포함된 관심시간을 기초로 관심영역을 판단할 수 있다.Referring to FIG. 6, the content providing device 100 provides gaze information ( The area of interest can be determined based on the interest time included in 40).
다시 말해, 실시예에서 관심영역이란 유저(1)의 시선이 소정의 시간 이상 머문 영역으로, 관심시간을 기초로 판단될 수 있다.In other words, in the embodiment, the area of interest is an area where the gaze of the user 1 stays for more than a predetermined time, and can be determined based on the time of interest.
자세히, 도 6은 설명의 편의를 위해 콘텐츠 제공 장치(100)에 부착된 이미지 센서 관점이 아닌 유저(1) 관점의 시선정보(40)일 수 있다. 즉, 도 6에 도시된 시선정보(40)는 유저의 시선으로 간주할 수 있다.In detail, for convenience of explanation, FIG. 6 may show gaze information 40 from the perspective of the user 1 rather than from the perspective of the image sensor attached to the content providing device 100. In other words, the gaze information 40 shown in FIG. 6 can be regarded as the user's gaze.
이때, 시선정보(40)에 포함된 (a) 및 (b)는 관심시간을 기초로 판단된 관심영역일 수 있다. (a) 및 (b)의 크기는 관심시간에 비례하고, 상술한 바에 따라 실시예에서 콘텐츠 제공 장치(100)는 더 큰 관심시간이 설정된 (b)가 형성된 영역을 관심영역으로 판단할 수 있다.At this time, (a) and (b) included in the gaze information 40 may be areas of interest determined based on the time of interest. The sizes of (a) and (b) are proportional to the time of interest, and as described above, in the embodiment, the content providing device 100 may determine the area where (b), where a larger time of interest is set, is formed as the area of interest. .
또한, 여기서 판단되는 관심영역은 콘텐츠 제공 장치(100)의 아이템 디스플레이(171-2) 상에 출력된 적어도 하나 이상의 아이템 이미지(IMG) 상에 위치할 수 있다.Additionally, the region of interest determined here may be located on at least one item image (IMG) output on the item display 171-2 of the content providing device 100.
또한, 콘텐츠 제공 장치(100)는 유저(1)가 적어도 한 명 이상인 경우, 상기 시선정보(40)를 유저(1)의 수에 비례하는 개수로 생성할 수 있다.Additionally, when there is at least one user 1, the content providing device 100 may generate the gaze information 40 in a number proportional to the number of users 1.
다시 돌아와서, 실시예에서 콘텐츠 제공 장치(100)는, 판단된 관심영역과 일치율이 높은 픽셀면적(PA)을 도출할 수 있다. (S109)Returning again, in the embodiment, the content providing device 100 may derive a pixel area (PA) that has a high matching rate with the determined area of interest. (S109)
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 판단된 관심영역 및 아이템 디스플레이(171-2)에 포함된 픽셀면적(PA)과의 일치율을 비교함으로써 복수의 픽셀면적(PA) 중 일치율이 가장 높은 제1 픽셀면적(PA-1)을 도출할 수 있다. In detail, in the embodiment, the content providing device 100 determines that the matching rate is the highest among the plurality of pixel areas (PA) by comparing the matching rate with the determined area of interest and the pixel area (PA) included in the item display 171-2. A high first pixel area (PA-1) can be derived.
여기서, 픽셀면적(PA)이란, 복수의 아이템이 진열되거나 아이템 이미지(IMG)가 노출된 아이템 디스플레이(171-2)에서 각 아이템이 위치한 소정의 영역을 의미한다. Here, the pixel area (PA) refers to a predetermined area where each item is located in the item display 171-2 where a plurality of items are displayed or an item image (IMG) is exposed.
즉, 이를 위해 실시예에서 콘텐츠 제공 장치(100)는, 각 픽셀면적(PA)마다 아이템 및 아이템 이미지(IMG)를 개별적으로 매칭하여 적어도 하나 이상의 픽셀면적(PA)을 기설정할 수 있다.That is, for this purpose, in the embodiment, the content providing device 100 may preset at least one pixel area (PA) by individually matching the item and the item image (IMG) for each pixel area (PA).
또한, 아이템 이미지(IMG)란, 콘텐츠 제공 장치(100)를 이용하여 상기 장치를 이용하는 유저에게 판매될 수 있는 아이템에 대한 대표 이미지를 의미하며, 아이템 디스플레이(171-2) 상에 적어도 하나 이상 출력될 수 있다.In addition, the item image (IMG) refers to a representative image for an item that can be sold to a user using the content providing device 100, and at least one image is displayed on the item display 171-2. It can be.
따라서, 픽셀면적(PA) 및 아이템 이미지(IMG)는 콘텐츠 제공 장치(100)에서 제공하는 아이템 개수에 상응하는 개수만큼 존재할 수 있다.Accordingly, the pixel area (PA) and item image (IMG) may exist in numbers corresponding to the number of items provided by the content providing device 100.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 아이템 디스플레이(171-2)를 기설정된 비율로 나누어(예컨대, 9분할) 나뉜 각 영역을 픽셀면적(PA)이라고 설정하는 방법 및 각 아이템 이미지(IMG)와 인접하는 소정의 영역(예컨대, 아이템 이미지(IMG)를 포함하는 사각형 영역)을 픽셀면적(PA)이라고 설정하는 방법 등을 이용하여 픽셀면적(PA)을 기설정할 수 있다.In addition, in the embodiment, the content providing device 100 divides the item display 171-2 by a preset ratio (e.g., 9 divisions) and sets each divided area as a pixel area (PA), and each item image ( The pixel area (PA) can be preset using a method such as setting a predetermined area (for example, a rectangular area containing the item image (IMG)) adjacent to the IMG as the pixel area (PA).
본 발명의 실시예에서는 콘텐츠 제공 장치(100)가 후자의 방법을 이용하여 픽셀면적(PA)을 기설정하는 방법을 기준으로 도면에 도시 및 서술하나, 픽셀면적(PA)을 기설정하는 방법은 이에 한정하지 않고 다양한 실시예가 존재할 수 있다.In an embodiment of the present invention, the content providing device 100 is shown and described in the drawing based on a method of presetting the pixel area (PA) using the latter method. However, the method of presetting the pixel area (PA) is It is not limited to this and various embodiments may exist.
실시예에서 콘텐츠 제공 장치(100)는, 아이템 디스플레이(171-2)에 포함된 복수의 픽셀면적(PA) 및 판단된 유저(1)의 관심영역의 일치율을 비교하여 일치율이 가장 높은 제1 픽셀면적(PA-1)을 도출할 수 있다.In the embodiment, the content providing device 100 compares the matching rate of the plurality of pixel areas (PA) included in the item display 171-2 and the determined area of interest of the user 1, and selects the first pixel with the highest matching rate. The area (PA-1) can be derived.
다시 도 6을 참조하면, 실시예에서 콘텐츠 제공 장치(100)는, 판매중인 아이템의 개수에 상응하는 개수만큼(예컨대, 도 6 기준으로 9개)의 픽셀면적(PA)을 기설정할 수 있다. 이때, 각각의 픽셀면적(PA)에는 하나의 아이템 및 아이템 이미지(IMG)가 포함될 수 있다.Referring again to FIG. 6 , in the embodiment, the content providing device 100 may preset a number of pixel areas (PA) corresponding to the number of items being sold (for example, 9 as of FIG. 6 ). At this time, each pixel area (PA) may include one item and an item image (IMG).
또한, 실시예에서 콘텐츠 제공 장치(100)는, 유저의 관심영역인 (b)와 일치율이 가장 높은 제1 픽셀면적(예컨대, 도 6에서 PA-1)을 도출할 수 있다.Additionally, in the embodiment, the content providing device 100 may derive the first pixel area (for example, PA-1 in FIG. 6) with the highest matching rate with (b), which is the user's area of interest.
이때, 실시예에서 콘텐츠 제공 장치(100)는, 복수의 픽셀면적(PA) 중 관심영역과 일치율이 가장 높은(예컨대, 일치율 80% 이상) 제1 픽셀면적(PA-1)을 도출할 수 있다.At this time, in the embodiment, the content providing device 100 may derive the first pixel area (PA-1) that has the highest matching rate with the region of interest (e.g., matching rate of 80% or more) among the plurality of pixel areas (PA). .
다음으로, 실시예에서 콘텐츠 제공 장치(100)는, 도출된 픽셀면적(PA)에 매칭된 아이템을 검출할 수 있다. (S111)Next, in the embodiment, the content providing device 100 may detect an item matching the derived pixel area (PA). (S111)
이를 위해, 실시예에서 콘텐츠 제공 장치(100)는, 각 픽셀면적(PA)마다 매칭된 아이템을 유저(1)가 응시중인 아이템이라고 판단함으로써 검출할 수 있다.To this end, in the embodiment, the content providing device 100 may detect the item matched for each pixel area (PA) by determining that it is the item that the user 1 is gazing at.
즉, 실시예에서 콘텐츠 제공 장치(100)는, 복수의 픽셀면적(PA) 중 관심영역과 일치율이 가장 높은 제1 픽셀면적(PA-1)을 도출하여, 도출된 제1 픽셀면적(PA-1)에 매칭된 아이템을 검출할 수 있다.That is, in the embodiment, the content providing device 100 derives the first pixel area (PA-1) that has the highest matching rate with the region of interest among the plurality of pixel areas (PA), and the derived first pixel area (PA-1) Items matching 1) can be detected.
이때, 검출된 아이템은 해당 아이템에 대한 광고 및 부가정보인 상품정보를 포함할 수 있다. 이를 위해, 실시예에서 콘텐츠 제공 장치(100)는, 상기 콘텐츠 제공 장치(100)를 이용하여 유저(1)에게 판매되는 아이템 각각에 포함된 상품정보를 아이템마다 개별적으로 매칭하여 상품정보 데이터베이스(111)에 기저장 해놓을 수 있다.At this time, the detected item may include product information, which is advertising and additional information for the item. To this end, in the embodiment, the content providing device 100 individually matches product information included in each item sold to the user 1 using the content providing device 100 to each item to create a product information database 111. ) can be pre-stored.
한편, 아이템 디스플레이(171-2) 상에 한 번에 노출 가능한 아이템 이미지(IMG) 개수의 제한으로 복수의 아이템페이지가 존재하는 경우에도, 해당하는 아이템페이지 내 소정의 픽셀면적(PA)에 매칭된 아이템을 검출할 수 있다. Meanwhile, even when a plurality of item pages exist due to a limit to the number of item images (IMG) that can be exposed at one time on the item display 171-2, the image matching the predetermined pixel area (PA) in the corresponding item page Items can be detected.
이를 위해, 실시예에서 콘텐츠 제공 장치(100)는, 입력 시스템(150)을 이용하여 유저(1)의 아이템페이지 변경 입력을 감지할 수 있다. To this end, in the embodiment, the content providing device 100 may detect the user 1's item page change input using the input system 150.
또한, 실시예에서 콘텐츠 제공 장치(100)는, 유저(1)의 아이템페이지 변경 입력에 따라 해당하는 아이템페이지 내 소정의 픽셀면적(PA)에 매칭된 아이템 및 아이템 이미지(IMG)를 변경할 수 있다.Additionally, in the embodiment, the content providing device 100 may change the item and item image (IMG) matched to a predetermined pixel area (PA) in the corresponding item page according to the user's (1) item page change input. .
이에 따라, 콘텐츠 제공 장치(100)는, 유저(1)의 입력에 의해 변경된 아이템페이지 상에서 도출된 픽셀면적(PA)에 매칭된 아이템을 검출할 수 있다.Accordingly, the content providing device 100 can detect an item matching the pixel area (PA) derived on the item page changed by the input of the user 1.
예컨대, 다시 도 6을 참조하면, 유저(1)의 입력을 감지하여 제1 아이템페이지를 제2 아이템페이지로 변경한 경우, 콘텐츠 제공 장치(100)는 제1 픽셀면적(PA-1)에 매칭된 제1 아이템을 제2 아이템으로 변경할 수 있다.For example, referring to FIG. 6 again, when the first item page is changed to the second item page by detecting the input of the user 1, the content providing device 100 matches the first pixel area (PA-1). The first item can be changed to the second item.
이때, 복수의 아이템페이지의 픽셀면적(PA)마다 노출되는 아이템 이미지(IMG)가 변경되고 이에 따라 검출되는 아이템도 상이하므로, 이를 위해 콘텐츠 제공 장치(100)는 기설정된 픽셀면적(PA)에 아이템페이지 정보를 포함할 수 있다.At this time, the item image (IMG) exposed for each pixel area (PA) of a plurality of item pages changes and the detected item is also different accordingly, so for this purpose, the content providing device 100 stores the item in the preset pixel area (PA). May contain page information.
즉, 유저(1)가 동일한 아이템 디스플레이(171-2) 영역을 응시함으로써 콘텐츠 제공 장치(100)가 동일한 픽셀면적(PA)을 도출하더라도, 픽셀면적(PA)에 포함된 아이템페이지 정보에 따라 상이한 아이템이 검출될 수 있다.That is, even if the content providing device 100 derives the same pixel area (PA) by the user 1 staring at the same item display 171-2 area, the content may be different depending on the item page information included in the pixel area (PA). Items can be detected.
이어서, 실시예에서 콘텐츠 제공 장치(100)는, 검출된 아이템에 대한 콘텐츠를 출력할 수 있다. (S113)Subsequently, in the embodiment, the content providing device 100 may output content for the detected item. (S113)
자세히, 실시예에서 콘텐츠 제공 장치(100)는, 상품정보 데이터베이스(111)를 기초로 검출된 아이템에 대한 상품정보를 콘텐츠로써 콘텐츠 디스플레이(171-1)에 출력할 수 있다. In detail, in the embodiment, the content providing device 100 may output product information about the item detected based on the product information database 111 as content to the content display 171-1.
또한, 상품정보 데이터베이스(111)에 검출한 아이템에 대한 상품정보가 미존재하는 경우, 실시예에서 콘텐츠 제공 장치(100)는, 통신 프로세서(130)를 이용한 OTT 서비스로 검출된 아이템에 대한 광고 및 부가정보를 포함하는 콘텐츠를 획득하여 콘텐츠 디스플레이(171-1)에 출력할 수도 있다.In addition, when product information for the detected item does not exist in the product information database 111, in the embodiment, the content providing device 100 provides advertisements and Content including additional information may be acquired and output on the content display 171-1.
실시예에 따라서, 콘텐츠 제공 장치(100)는, 상기 상품정보 데이터베이스(111)로부터 상기 픽셀면적에 매칭되는 아이템을 검출하고, 상기 검출된 아이템에 대한 상품정보를 개시된 OTT 서비스(Over-the-top media service)를 기초로 인터넷을 통해 획득하여 제공할 수도 있다. According to the embodiment, the content providing device 100 detects an item matching the pixel area from the product information database 111, and sends product information for the detected item to a disclosed OTT service (Over-the-top). It can also be obtained and provided through the Internet based on media service.
정리하자면, 콘텐츠 제공 장치(100)는, 아이템 디스플레이(171-2)에 노출된 복수의 아이템 중 유저(1)가 응시하는 아이템을 판단 및 검출하여 해당 아이템에 대한 광고 및 부가정보를 콘텐츠 디스플레이(171-1) 상에 출력함으로써 유저(1)에게 콘텐츠를 제공할 수 있다.In summary, the content providing device 100 determines and detects the item that the user 1 is looking at among the plurality of items exposed to the item display 171-2 and displays advertisements and additional information for the item on the content display ( Content can be provided to the user 1 by printing it on 171-1).
또한, 콘텐츠 제공 장치(100)는, 유저(1)의 시선정보 뿐만 아니라 입력 시스템(150)을 이용하여 유저(1)의 아이템 선택 입력을 감지함으로써 유저(1)에게 콘텐츠를 제공할 수도 있다.Additionally, the content providing device 100 may provide content to the user 1 by detecting the user 1's item selection input using the input system 150 as well as the user's 1 gaze information.
이를 위해, 콘텐츠 제공 장치(100)는, 아이템 디스플레이(171-2)에 노출된 복수의 아이템 중 적어도 하나의 아이템이 포함된 픽셀면적(PA)을 선택하는 유저(1)의 아이템 선택 입력을 감지할 수 있다.To this end, the content providing device 100 detects the user 1's item selection input to select a pixel area (PA) containing at least one item among the plurality of items exposed on the item display 171-2. can do.
상기 입력에 따라, 콘텐츠 제공 장치(100)는 유저(1)가 선택한 픽셀면적(PA)을 도출할 수 있고, 상기 도출된 픽셀면적(PA)에 매칭된 아이템을 검출하여 상기 검출된 아이템에 대한 상품정보 콘텐츠를 출력할 수 있다. According to the input, the content providing device 100 may derive the pixel area (PA) selected by the user 1, detect an item matching the derived pixel area (PA), and provide information about the detected item. Product information content can be printed.
또한, 실시예에서 콘텐츠 제공 장치(100)는, S105 단계에서 생성된 유저(1)의 시선정보(40)를 기초로 콘텐츠 디스플레이(171-1)에 노출되는 콘텐츠를 관리(실시예에서, 재생, 변경, 정지 및 종료)할 수 있다.Additionally, in the embodiment, the content providing device 100 manages (in the embodiment, plays) content exposed to the content display 171-1 based on the gaze information 40 of the user 1 generated in step S105. , change, stop, and terminate).
예컨대, 1) 아이템 디스플레이(171-2) 상에서 유저(1)의 시선정보(40)가 미수집되는 경우, 실시예에서 콘텐츠 제공 장치(100)는 유저(1)가 콘텐츠 디스플레이(171-1)에 재생중인 콘텐츠를 지속적으로 응시하고 있다고 판단하여 재생중인 콘텐츠를 콘텐츠 디스플레이(171-1)상에 출력하는 상태를 유지할 수 있다.For example, 1) When the gaze information 40 of the user 1 is not collected on the item display 171-2, in the embodiment, the content providing device 100 allows the user 1 to display the content 171-1. By determining that the user is continuously looking at the content being played, the content being played can be maintained on the content display 171-1.
또한, 예컨대, 2) 아이템 디스플레이(171-2) 상에서 유저(1)의 시선정보(40)가 수집되고 상기 시선정보(40)에 포함된 관심영역이 변경된 경우, 실시예에서 콘텐츠 제공 장치(100)는 재생중인 콘텐츠를 정지하고 S109 단계로 회귀하여 유저(1)가 새로이 응시하는 아이템에 대한 콘텐츠로 변경하여 재생할 수 있다.In addition, for example, 2) when gaze information 40 of the user 1 is collected on the item display 171-2 and the area of interest included in the gaze information 40 is changed, in the embodiment, the content providing device 100 ) can stop the content being played, return to step S109, and change the content to the content for the item that the user 1 is newly looking at.
또한, 예컨대, 3) 아이템 디스플레이(171-2) 상에서 유저(1)의 시선정보(40)가 미수집되��� 이미지 센서(161)를 이용하여 획득되는 얼굴인식 영상(10)이 미존재하는 경우, 실시예에서 콘텐츠 제공 장치(100)는 유저(1)가 아이템의 구매를 비희망하여 콘텐츠 제공 장치(100) 이용을 중단했다고 판단하여 재생중인 콘텐츠를 종료할 수 있다.In addition, for example, 3) when the gaze information 40 of the user 1 is not collected on the item display 171-2 and the face recognition image 10 acquired using the image sensor 161 does not exist, In an embodiment, the content providing device 100 may determine that the user 1 does not wish to purchase the item and has stopped using the content providing device 100, and may end the content being played.
상술한 3)의 경우에는, 콘텐츠 디스플레이(171-1) 상에 유저(1)가 아닌 일반 행인들을 대상으로 일반 광고를 출력할 수 있으며, 이에 따라 콘텐츠 제공 장치(100)의 사용 효율을 증가시킬 수 있는 효과가 있다.In the case of 3) described above, a general advertisement can be output on the content display 171-1 targeting general passers-by rather than the user 1, thereby increasing the use efficiency of the content providing device 100. There is a possible effect.
한편, 다른 실시예에 따른 콘텐츠 제공 장치(100)는, 복수의 유저가 콘텐츠 제공 장치(100)를 이용하는 경우에도 복수의 유저 각각에 대해 시선인식 기반 맞춤형 콘텐츠를 제공할 수도 있다.Meanwhile, the content providing device 100 according to another embodiment may provide customized content based on gaze recognition to each of a plurality of users even when a plurality of users use the content providing device 100.
이하의 다른 실시예에서는 상술한 실시예와 차이가 있는 내용에 대하여만 서술하며, 서술되지 않은 내용은 상술한 실시예의 방법을 준용하는 것으로 본다.In other embodiments below, only content that is different from the above-described embodiment will be described, and the method of the above-described embodiment will be considered to apply to content not described.
도 7은 본 발명의 다른 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 방법을 설명하기 위한 흐름도이다.Figure 7 is a flowchart illustrating a method of providing customized content based on gaze recognition according to another embodiment of the present invention.
도 7을 참조하면, 다른 실시예에서 콘텐츠 제공 장치(100)는, 얼굴인식 영상(10)을 기초로 복수의 유저 얼굴영역(FA)을 인식할 수 있다. (S301)Referring to FIG. 7 , in another embodiment, the content providing device 100 may recognize a plurality of user facial areas (FA) based on the facial recognition image 10. (S301)
자세히, 다른 실시예에서 콘텐츠 제공 장치(100)는, 얼굴인식 영상(10)에 인식된 유저(1)의 얼굴영역(FA)이 복수개이며 인식된 얼굴영역(FA)이 모두 소정의 크기(예컨대, 3제곱센치미터(cm2)) 이상인 경우, 복수의 유저 얼굴영역(FA)을 인식할 수 있다.In detail, in another embodiment, the content providing device 100 has a plurality of face areas (FA) of the user 1 recognized in the face recognition image 10, and all of the recognized face areas (FA) have a predetermined size (e.g. , 3 square centimeters (cm2) or more, multiple user face areas (FA) can be recognized.
설명의 편의를 위해, 복수의 유저(1)가 2명인 경우에 기준하여 설명하나, 이에 한정하지 않고 더 적거나 많은 수의 유저(1)가 존재하는 다양한 실시예가 가능할 수 있다.For convenience of explanation, the description is based on the case where there are two users (1), but the present invention is not limited to this and various embodiments in which there are fewer or more users (1) may be possible.
예컨대, 콘텐츠 제공 장치(100)를 이용하고자 하는 유저(1)가 2명이며 인식된 얼굴영역(FA) 2개가 모두 소정의 크기 이상인 경우, 콘텐츠 제공 장치(100)는 콘텐츠 제공 장치(100)를 이용하려는 유저(1)가 복수 명임을 판단할 수 있다.For example, if there are two users (1) who want to use the content providing device 100 and both recognized face areas (FA) are larger than a predetermined size, the content providing device 100 It can be determined that there are multiple users (1) trying to use the device.
이어서, 다른 실시예에서 콘텐츠 제공 장치(100)는, 인식된 얼굴영역(FA)에 따라 카메라 앵글을 조정할 수 있다. (S303)Subsequently, in another embodiment, the content providing device 100 may adjust the camera angle according to the recognized facial area (FA). (S303)
자세히, 다른 실시예에서 콘텐츠 제공 장치(100)는, 인식된 얼굴영역(FA)이 복수개이므로, 상기 복수의 얼굴영역(FA) 모두가 정상적으로 인식되는 각도를 도출하여 카메라 앵글을 조정할 수 있다. In detail, in another embodiment, since there are a plurality of recognized face areas (FA), the content providing device 100 may adjust the camera angle by deriving an angle at which all of the plurality of face areas (FA) are recognized normally.
예컨대, 콘텐츠 제공 장치(100)는, 카메라 중심점이 인식된 2개의 얼굴영역(FA)의 정중앙에 위치할 수 있도록 카메라 앵글을 조정할 수 있다.For example, the content providing device 100 may adjust the camera angle so that the camera center point is located at the exact center of the two recognized face areas (FA).
또한, 다른 실시예에서 콘텐츠 제공 장치(100)는, 복수의 유저의 시선을 추적하여 제1 시선정보 및 제2 시선정보를 생성할 수 있다. (S305)Additionally, in another embodiment, the content providing device 100 may generate first gaze information and second gaze information by tracking the gaze of a plurality of users. (S305)
이때, 다른 실시예에서 콘텐츠 제공 장치(100)는, 제1 유저의 시선을 추적한 시선정보인 제1 시선정보 및 제2 유저의 시선을 추적한 시선정보인 제2 시선정보를 생성할 수 있다.At this time, in another embodiment, the content providing device 100 may generate first gaze information, which is gaze information that tracks the gaze of the first user, and second gaze information, which is gaze information that tracks the gaze of the second user. .
또한, 다른 실시예에서 콘텐츠 제공 장치(100)는, 생성된 복수의 시선정보를 기초로 제1 관심영역 및 제2 관심영역을 판단할 수 있다. (S307)Additionally, in another embodiment, the content providing device 100 may determine a first region of interest and a second region of interest based on a plurality of generated gaze information. (S307)
이때, 다른 실시예에서 콘텐츠 제공 장치(100)는, 생성된 제1 시선정보로부터 제1 관심영역을 판단하고 제2 시선정보로부터 제2 관심영역을 판단할 수 있다. At this time, in another embodiment, the content providing device 100 may determine the first area of interest from the generated first gaze information and determine the second area of interest from the second gaze information.
즉, 다른 실시예에서 콘텐츠 제공 장치(100)는, 유저의 수에 비례하는 수의 시선정보 및 관심영역을 생성할 수 있다.That is, in another embodiment, the content providing device 100 may generate a number of gaze information and areas of interest proportional to the number of users.
또한, 다른 실시예에서 콘텐츠 제공 장치(100)는, 판단된 복수의 관심영역과 일치율이 높은 제1 픽셀면적 및 제2 픽셀면적을 도출할 수 있다. (S309)Additionally, in another embodiment, the content providing device 100 may derive a first pixel area and a second pixel area that have a high matching rate with the plurality of determined regions of interest. (S309)
이때, 다른 실시예에서 콘텐츠 제공 장치(100)는, 도출된 제1 픽셀면적 및 제2 픽셀면적이 동일한 경우, 복수의 유저가 응시중인 아이템이 동일하다고 판단하여 S111 및 S113과 동일한 방법으로 콘텐츠 디스플레이(171-1)에 하나의 콘텐츠만을 출력할 수 있다.At this time, in another embodiment, if the derived first pixel area and the second pixel area are the same, the content providing device 100 determines that the item that the plurality of users are looking at is the same and displays the content in the same manner as S111 and S113. Only one content can be output at (171-1).
바꿔 말하면, 다른 실시예에서 콘텐츠 제공 장치(100)는, 도출된 제1 픽셀면적 및 제2 픽셀면적이 상이한 경우, 복수의 유저가 응시중인 아이템이 다르다고 판단하여 복수의 콘텐츠를 콘텐츠 디스플레이(171-1)에 출력하기 위해 S311 단계를 수행할 수 있다.In other words, in another embodiment, when the derived first pixel area and the second pixel area are different, the content providing device 100 determines that the items that the plurality of users are looking at are different and displays the plurality of contents in the content display 171- Step S311 can be performed to output in 1).
또한, 다른 실시예에서 콘텐츠 제공 장치(100)는, 도출된 복수의 픽셀면적에 매칭된 제1 아이템 및 제2 아이템을 검출할 수 있다. (S311)Additionally, in another embodiment, the content providing device 100 may detect a first item and a second item that match the derived plurality of pixel areas. (S311)
이어서, 다른 실시예에서 콘텐츠 제공 장치(100)는, 콘텐츠 디스플레이(171-1)에 출력 화면을 분할할 수 있다. (S313)Subsequently, in another embodiment, the content providing device 100 may split the output screen on the content display 171-1. (S313)
이때, 콘텐츠 디스플레이(171-1) 출력 화면은 인식된 유저의 수에 상응하는 수로 분할될 수 있다.At this time, the output screen of the content display 171-1 may be divided into numbers corresponding to the number of recognized users.
또한, 다른 실시예에서 콘텐츠 제공 장치(100)는, 분할된 출력 화면에 각각 제1 콘텐츠 및 제2 콘텐츠를 출력할 수 있다. (S315)Additionally, in another embodiment, the content providing device 100 may output first content and second content respectively on divided output screens. (S315)
자세히, 다른 실시예에서 콘텐츠 제공 장치(100)는, 각 유저와 가까운 위치의 분할된 콘텐츠 디스플레이(171-1)의 출력 화면에 각각 제1 콘텐츠 및 제2 콘텐츠를 출력할 수 있다. In detail, in another embodiment, the content providing device 100 may output the first content and the second content on the output screen of the divided content display 171-1 located close to each user.
도 8은 본 발명의 다른 실시예에 따라 복수의 시선인식 기반 맞춤형 콘텐츠가 출력되는 모습을 나타낸 일례이다.Figure 8 is an example showing a plurality of customized content based on gaze recognition being output according to another embodiment of the present invention.
도 8을 참조하면, 다른 실시예에서 콘텐츠 제공 장치(100)는, 제1 유저(1-A) 및 제2 유저(1-B)의 시선을 각각 추적하여 아이템 디스플레이(171-2)에 포함된 제1 픽셀면적(PA-A) 및 제2 픽셀면적(PA-B)을 도출할 수 있다. Referring to FIG. 8, in another embodiment, the content providing device 100 tracks the gaze of the first user 1-A and the second user 1-B and includes them in the item display 171-2. The first pixel area (PA-A) and the second pixel area (PA-B) can be derived.
이때, 다른 실시예에서 콘텐츠 제공 장치(100)는, 제1 픽셀면적(PA-A) 및 제2 픽셀면적(PA-B)의 위치와 관계없이 제1 유저(1-A) 및 제2 유저(1-B)의 위치를 기초로 각 유저와 가까운 분할 출력 화면에 콘텐츠를 출력할 수 있다.At this time, in another embodiment, the content providing device 100 provides the first user (1-A) and the second user regardless of the positions of the first pixel area (PA-A) and the second pixel area (PA-B). Based on the location of (1-B), content can be output on a split output screen close to each user.
예컨대, 콘텐츠 제공장치는(100)는, 제1 유저(1-A)가 응시중인 제1 픽셀면적(PA-A)에 해당하는 아이템에 대한 콘텐츠는 제1 유저와 가까운 A' 분할 출력 화면에 출력할 수 있고, 제2 유저(1-B)가 응시중인 제2 픽셀면적(PA-B)에 해당하는 아이템에 대한 콘텐츠는 제2 유저와 가까운 B' 분할 출력 화면에 출력할 수 있다.For example, the content providing device 100 may display content about an item corresponding to the first pixel area (PA-A) that the first user (1-A) is looking at on the A' split output screen close to the first user. Contents for items corresponding to the second pixel area (PA-B) that the second user (1-B) is gazing at can be output on the split output screen B' close to the second user.
또한, 다른 실시예에서 콘텐츠 제공 장치(100)는, S301 단계에서 인식한 유저 얼굴영역(FA)의 위치와 대응하여 분할 출력 화면을 지정할 수 있다.Additionally, in another embodiment, the content providing device 100 may designate a split output screen in correspondence with the location of the user face area (FA) recognized in step S301.
이상, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법은, 사용자의 신���적 특성에 따라 장치에 부착된 카메라의 시야각을 실시간으로 자동 조정함으로써 사용자가 바뀔 때마다 사용자에 맞는 초기 세팅 수행에 소요되는 시간을 단축하는 효과가 있다.As described above, the device and method for providing customized content based on gaze recognition according to an embodiment of the present invention automatically adjusts the viewing angle of the camera attached to the device in real time according to the user's physical characteristics, so that each time the user changes, the device and method provide an initial value tailored to the user. It has the effect of shortening the time required to perform settings.
또한, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법은 사용자가 응시중인 상품에 대한 콘텐츠를 출력함으로써 사용자의 관심 상품을 직관적으로 파악하여 콘텐츠 노출에 따른 사용자의 만족도를 향상시키는 효과가 있다.In addition, the device and method for providing customized content based on gaze recognition according to an embodiment of the present invention intuitively identifies the product of interest to the user by outputting content about the product the user is looking at, thereby improving the user's satisfaction according to content exposure. It has an effect.
또한, 본 발명의 실시예에 따른 시선인식 기반 맞춤형 콘텐츠를 제공하는 장치 및 방법은 복수의 사용자 수에 맞게 콘텐츠 출력 화면을 분할함으로써 콘텐츠 출력 화면을 효율적으로 사용하여 각 사용자에게 광고 및 정보의 전달력을 상승시키는 효과가 있다.In addition, the device and method for providing customized content based on gaze recognition according to an embodiment of the present invention divides the content output screen according to the number of users, thereby efficiently using the content output screen to deliver advertisements and information to each user. It has the effect of increasing .
이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 ������를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device can be converted into one or more software modules to perform processing according to the invention, and vice versa.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For the sake of brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connections or connection members of lines between components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in actual devices, various functional connections or physical connections may be replaced or added. Can be represented as connections, or circuit connections. Additionally, if there is no specific mention such as “essential,” “important,” etc., it may not be a necessary component for the application of the present invention.
또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to preferred embodiments of the present invention, those skilled in the art or those skilled in the art will understand the spirit of the present invention as described in the patent claims to be described later. It will be understood that the present invention can be modified and changed in various ways without departing from the technical scope. Therefore, the technical scope of the present invention should not be limited to what is described in the detailed description of the specification, but should be defined by the scope of the claims.
Claims (10)
이미지 센서를 기초로 적어도 한 명 이상의 유저의 얼굴 영역을 포함하는 얼굴인식 영상을 획득하는 단계;
상기 획득된 얼굴인식 영상을 기초로 상기 이미지 센서를 제어하여 상기 적어도 한 명 이상의 유저의 얼굴 정면뷰 영상을 획득하는 단계;
상기 획득된 얼굴 정면뷰 영상을 기초로 상기 적어도 한 명 이상의 유저의 시선방향 및 시선 고정시간 정보를 포함하는 시선정보를 적어도 하나 이상 생성하는 단계;
상기 생성된 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계;
상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계; 및
상기 검출된 아이템에 대한 상품정보 콘텐츠를 제공하는 단계를 포함하고,
상기 검출된 아이템에 대한 상품정보 콘텐츠를 제공하는 단계는,
상기 디스플레이 영역을 아이템 디스플레이 영역 및 콘텐츠 디스플레이 영역으로 구분하는 단계와,
상기 아이템 디스플레이 영역에서 생성된 적어도 하나 이상의 시선정보에 대응되는 관심영역을 결정하는 단계와,
상기 결정된 관심영역이 둘 이상이면, 상기 콘텐츠 디스플레이 영역을 상기 관심영역의 개수에 상응하도록 분할하는 단계와,
상기 분할된 콘텐츠 디스플레이 영역 중 제1 콘텐츠 디스플레이 영역에는 제1 유저의 ���1 시선정보에 따른 제1 관심영역에 대응되는 제1 아이템에 대한 제1 상품정보 콘텐츠를 출력하고, 제2 콘텐츠 디스플레이 영역에는 제2 유저의 제2 시선정보에 따른 제2 관심영역에 대응되는 제2 아이템에 대한 제2 상품정보 콘텐츠를 각각 출력하는 단계를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.In a method of providing customized content based on gaze recognition executed by at least one processor of a content providing device,
Obtaining a face recognition image including a facial area of at least one user based on an image sensor;
controlling the image sensor based on the acquired facial recognition image to obtain a front view image of the face of the at least one user;
Generating at least one piece of gaze information including gaze direction and gaze fixation time information of the at least one user based on the acquired front view image of the face;
determining a display area corresponding to the generated gaze information as a region of interest;
detecting an item matching the determined area of interest; and
Comprising the step of providing product information content for the detected item,
The step of providing product information content for the detected item is,
dividing the display area into an item display area and a content display area;
determining an area of interest corresponding to at least one gaze information generated in the item display area;
If the determined areas of interest are two or more, dividing the content display area to correspond to the number of areas of interest;
Among the divided content display areas, the first product information content for the first item corresponding to the first area of interest according to the first gaze information of the first user is output in the first content display area, and in the second content display area. Including the step of outputting second product information content for the second item corresponding to the second area of interest according to the second gaze information of the second user, respectively.
A method of providing customized content based on gaze recognition.
상기 획득된 얼굴인식 영상을 기초로 상기 이미지 센서를 제어하여 상기 적어도 한 명 이상의 유저의 얼굴 정면뷰 영상을 획득하는 단계는,
상기 얼굴인식 영상을 기 학습된 딥러닝 뉴럴 네트워크의 입력 데이터로 제공하는 단계와, 상기 딥러닝 뉴럴 네트워크의 출력 데이터로 상기 적어도 한 명 이상의 유저의 얼굴 포즈정보를 획득하는 단계와, 상기 획득된 얼굴 포즈 정보를 기초로 상기 이미지 센서를 제어하는 단계를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.According to claim 1,
The step of controlling the image sensor based on the acquired facial recognition image to obtain a front view image of the face of the at least one user,
Providing the face recognition image as input data of a pre-trained deep learning neural network, obtaining facial pose information of the at least one user as output data of the deep learning neural network, and the acquired face Comprising controlling the image sensor based on pose information.
A method of providing customized content based on gaze recognition.
상기 생성된 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계는,
상기 유저의 시선 고정시간 정보가 기 설정된 시간 이상을 충족하면, 상기 유저의 시선방향에 대응되는 상기 아이템 디스플레이 영역에 포함된 제1 아이템 영역을 상기 관심영역으로 결정하는 단계를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.According to claim 1,
The step of determining the display area corresponding to the generated gaze information as the area of interest is,
When the user's gaze fixation time information meets a preset time or more, determining a first item area included in the item display area corresponding to the user's gaze direction as the area of interest.
A method of providing customized content based on gaze recognition.
상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계는,
상기 아이템 디스플레이 영역을 기초로 출력되는 아이템페이지를 선택하는 유저 입력을 획득하는 단계와,
상기 선택된 아이템페이지 내 상기 관심영역에 매칭된 아이템을 검출하는 단계를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.According to claim 1,
The step of detecting an item matching the determined area of interest is,
Obtaining a user input for selecting an item page to be output based on the item display area;
Comprising the step of detecting an item matching the area of interest within the selected item page.
A method of providing customized content based on gaze recognition.
상기 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하는 단계는,
제1 시선정보가 제2 시선정보로 변경되면 상기 변경된 제2 시선정보에 대응되는 상기 아이템 디스플레이 영역 및 상기 콘텐츠 디스플레이 영역 중 적어도 하나로 상기 관심영역을 업데이트하는 단계를 포함하고,
상기 관심영역을 업데이트하는 단계는,
상기 업데이트된 관심영역이 아이템 디스플레이 영역이면, 상기 콘텐츠 디스플레이 영역에서 재생되는 상기 제1 시선정보에 매칭된 제1 상품정보 콘텐츠를 상기 제2 시선정보에 매칭된 제2 상품정보 콘텐츠로 변경하는 단계와,
상기 업데이트된 관심영역이 콘텐츠 디스플레이 영역이면, 상기 콘텐츠 디스플레이 영역에서 재생되는 상기 제1 상품정보 콘텐츠의 재생을 유지하는 단계를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.According to claim 1,
The step of determining the display area corresponding to the gaze information as the area of interest is,
When first gaze information is changed to second gaze information, updating the region of interest with at least one of the item display area and the content display area corresponding to the changed second gaze information,
The step of updating the region of interest is,
If the updated area of interest is an item display area, changing the first product information content matched to the first gaze information played in the content display area into a second product information content matched to the second gaze information; ,
If the updated area of interest is a content display area, maintaining playback of the first product information content played in the content display area.
A method of providing customized content based on gaze recognition.
상기 결정된 관심영역에 매칭되는 아이템을 검출하는 단계는,
상기 관심영역에 매칭되는 디스플레이 영역 내 적어도 하나의 픽셀을 검출하는 단계와,
상기 검출된 적어도 하나의 픽셀에 대하여 기 저장된 아이템을 검출하는 단계를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.According to claim 1,
The step of detecting an item matching the determined area of interest is,
detecting at least one pixel in a display area matching the region of interest;
Comprising the step of detecting a pre-stored item for the detected at least one pixel.
A method of providing customized content based on gaze recognition.
상기 아이템 디스플레이 영역 내 적어도 하나의 픽셀을 선택하는 유저 입력을 획득하는 단계와, 상기 선택된 적어도 하나의 픽셀에 대하여 기 저장된 아이템을 검출하는 단계와, 상기 검출된 아이템에 대한 상품정보 콘텐츠를 상기 콘텐츠 디스플레이 영역에 출력하는 단계를 더 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 방법.According to claim 1,
Obtaining a user input for selecting at least one pixel in the item display area, detecting a pre-stored item for the selected at least one pixel, and displaying product information content for the detected item Further comprising the step of outputting to the area
A method of providing customized content based on gaze recognition.
상기 획득된 얼굴인식 영상에 기초한 상품정보 콘텐츠를 출력하는 적어도 하나의 디스플레이;
적어도 하나의 프로세서;를 포함하고,
상기 프로세서는,
상기 획득된 얼굴인식 영상을 기초로 상기 이미지 센서를 제어하여 상기 적어도 한 명 이상의 유저의 얼굴 정면뷰 영상을 획득하고,
상기 획득된 얼굴 정면뷰 영상을 기초로 상기 적어도 한 명 이상의 유저의 시선방향 및 시선 고정시간 정보를 포함하는 시선정보를 적어도 하나 이상 생성하고,
상기 생성된 시선정보에 대응되는 디스플레이 영역을 관심영역으로 결정하고,
상기 결정된 관심영역에 매칭되는 아이템을 검출하고,
상기 검출된 아이템에 대한 상품정보 콘텐츠를 제공하고,
상기 검출된 아이템에 대한 상품정보 콘텐츠의 제공은,
상기 디스플레이 영역을 아이템 디스플레이 영역 및 콘텐츠 디스플레이 영역으로 구분하고,
상기 아이템 디스플레이 영역에서 생성된 적어도 하나 이상의 시선정보에 대응되는 관심영역을 결정하고,
상기 결정된 관심영역이 둘 이상이면, 상기 콘텐츠 디스플레이 영역을 상기 관심영역의 개수에 상응하도록 분할하고,
상기 분할된 콘텐츠 디스플레이 영역 중 제1 콘텐츠 디스플레이 영역에는 제1 유저의 제1 시선정보에 따른 제1 관심영역에 대응되는 제1 아이템에 대한 제1 상품정보 콘텐츠를 출력하고, 제2 콘텐츠 디스플레이 영역에는 제2 유저의 제2 시선정보에 따른 제2 관심영역에 대응되는 제2 아이템에 대한 제2 상품정보 콘텐츠를 각각 출력하는 것을 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 장치.At least one image sensor that acquires a face recognition image including a facial area of at least one user;
At least one display that outputs product information content based on the acquired facial recognition image;
At least one processor;
The processor,
Controlling the image sensor based on the acquired facial recognition image to obtain a front view image of the face of the at least one user,
Generating at least one piece of gaze information including gaze direction and gaze fixation time information of the at least one user based on the obtained front view image of the face,
Determine the display area corresponding to the generated gaze information as the area of interest,
Detect an item matching the determined area of interest,
Provide product information content for the detected item,
Provision of product information content for the detected item,
Dividing the display area into an item display area and a content display area,
Determine an area of interest corresponding to at least one gaze information generated in the item display area,
If the determined areas of interest are two or more, dividing the content display area to correspond to the number of areas of interest,
Among the divided content display areas, the first product information content for the first item corresponding to the first area of interest according to the first gaze information of the first user is output in the first content display area, and in the second content display area. Including outputting second product information content for the second item corresponding to the second area of interest according to the second gaze information of the second user, respectively.
A device that provides customized content based on gaze recognition.
상기 디스플레이는,
적어도 하나 이상의 상기 아이템에 대한 대표 이미지를 출력하는 아이템 디스플레이와, 상기 상품정보 콘텐츠를 출력하는 콘텐츠 디스플레이를 포함하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 장치.According to clause 8,
The display is,
Comprising an item display that outputs a representative image for at least one of the items, and a content display that outputs the product information content.
A device that provides customized content based on gaze recognition.
상기 프로세서는,
상기 얼굴인식 영상에 기반한 딥러닝을 기초로 상기 유저의 얼굴 포즈정보를 획득하고,
상기 획득된 얼굴 포즈정보를 기초로 상기 이미지 센서를 제어하여 상기 유저의 얼굴 정면뷰 영상을 획득하는
시선인식 기반 맞춤형 콘텐츠를 제공하는 장치.
According to clause 8,
The processor,
Obtaining facial pose information of the user based on deep learning based on the facial recognition image,
Obtaining a front view image of the user's face by controlling the image sensor based on the acquired facial pose information
A device that provides customized content based on gaze recognition.
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220006674A KR102665453B1 (en) | 2022-01-17 | 2022-01-17 | Apparatus and method for providing customized content based on gaze recognition |
| JP2023002697A JP7478339B2 (en) | 2022-01-17 | 2023-01-11 | Apparatus and method for providing gaze recognition-based custom content |
| US18/097,201 US12019798B2 (en) | 2022-01-17 | 2023-01-14 | Device and method for providing customized content based on gaze recognition |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR1020220006674A KR102665453B1 (en) | 2022-01-17 | 2022-01-17 | Apparatus and method for providing customized content based on gaze recognition |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| KR20230111005A KR20230111005A (en) | 2023-07-25 |
| KR102665453B1 true KR102665453B1 (en) | 2024-05-10 |
Family
ID=87379138
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| KR1020220006674A Active KR102665453B1 (en) | 2022-01-17 | 2022-01-17 | Apparatus and method for providing customized content based on gaze recognition |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US12019798B2 (en) |
| JP (1) | JP7478339B2 (en) |
| KR (1) | KR102665453B1 (en) |
Families Citing this family (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN118525312A (en) * | 2022-12-19 | 2024-08-20 | 京东方科技集团股份有限公司 | Locker management method and device |
| US20240202986A1 (en) * | 2022-12-20 | 2024-06-20 | Rovi Guides, Inc. | Systems and methods for conceptualizing a virtual or live object |
| US12468561B2 (en) * | 2023-11-29 | 2025-11-11 | Bricks Display Inc. | System and method for automatically adjusting a user interface based on user identity |
| KR102840515B1 (en) * | 2024-04-26 | 2025-07-30 | 주식회사 이투온 | Object-tailored advertising system |
| KR102788570B1 (en) * | 2024-08-12 | 2025-03-31 | 달기나라 주식회사 | Method and system for providing user-customized ordering process based on a multimodal ai kiosk device |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102198360B1 (en) | 2019-10-24 | 2021-01-04 | 광운대학교 산학협력단 | Eye tracking system and method based on face images |
| KR102305880B1 (en) * | 2020-06-26 | 2021-09-28 | 이종우 | User's Gaze Tracking Method, and Medium Being Recorded with Program for Executing the Method |
Family Cites Families (33)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4526639B2 (en) | 2000-03-02 | 2010-08-18 | 本田技研工業株式会社 | Face recognition apparatus and method |
| KR20020079236A (en) | 2001-04-13 | 2002-10-19 | 이용선 | Vending machine of having advertisement function and system therefor |
| JP4942850B1 (en) * | 2011-09-22 | 2012-05-30 | 株式会社ヤッパ | Electronic content providing system, electronic content providing server, electronic content browsing terminal device, and program |
| KR101479471B1 (en) | 2012-09-24 | 2015-01-13 | 네이버 주식회사 | Method and system for providing advertisement based on user sight |
| KR101978299B1 (en) * | 2012-10-24 | 2019-05-14 | 에스케이플래닛 주식회사 | Apparatus for service contents in contents service system |
| KR102213865B1 (en) * | 2014-03-18 | 2021-02-08 | 에스케이플래닛 주식회사 | Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor |
| US20170123491A1 (en) * | 2014-03-17 | 2017-05-04 | Itu Business Development A/S | Computer-implemented gaze interaction method and apparatus |
| US10802582B1 (en) * | 2014-04-22 | 2020-10-13 | sigmund lindsay clements | Eye tracker in an augmented reality glasses for eye gaze to input displayed input icons |
| KR101647969B1 (en) * | 2014-09-12 | 2016-08-12 | 재단법인대구디지털산업진흥원 | Apparatus for detecting user gaze point, and method thereof |
| US9928410B2 (en) * | 2014-11-24 | 2018-03-27 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing object, and method and apparatus for training recognizer |
| JP6447108B2 (en) * | 2014-12-24 | 2019-01-09 | 富士通株式会社 | Usability calculation device, availability calculation method, and availability calculation program |
| US10732721B1 (en) * | 2015-02-28 | 2020-08-04 | sigmund lindsay clements | Mixed reality glasses used to operate a device touch freely |
| JP6562077B2 (en) * | 2015-08-20 | 2019-08-21 | 日本電気株式会社 | Exhibition device, display control device, and exhibition system |
| US9990044B2 (en) * | 2015-10-30 | 2018-06-05 | Intel Corporation | Gaze tracking system |
| US10339758B2 (en) * | 2015-12-11 | 2019-07-02 | Igt Canada Solutions Ulc | Enhanced electronic gaming machine with gaze-based dynamic messaging |
| KR101772181B1 (en) * | 2016-01-14 | 2017-08-28 | 최선영 | User's multi-tasking watching act on the web display analyzing system and method using user's eye movement analyzation |
| AU2017223313A1 (en) * | 2016-02-26 | 2018-09-20 | The Coca-Cola Company | Touchless control graphical user interface |
| JP2018055248A (en) * | 2016-09-27 | 2018-04-05 | ソニー株式会社 | Information collection system, electronic shelf label, electronic POP, character information display device |
| US20200183496A1 (en) * | 2017-08-01 | 2020-06-11 | Sony Corporation | Information processing apparatus and information processing method |
| JP6845111B2 (en) * | 2017-08-23 | 2021-03-17 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and image display method |
| KR102564855B1 (en) * | 2018-01-08 | 2023-08-08 | 삼성전자주식회사 | Device and method to recognize object and face expression, and device and method to train obejct and face expression robust to facial change |
| KR102565977B1 (en) * | 2018-02-08 | 2023-08-11 | 삼성전자주식회사 | Method for detecting region of interest based on line of sight and electronic device thereof |
| TWI669703B (en) * | 2018-08-28 | 2019-08-21 | 財團法人工業技術研究院 | Information display method and information display apparatus suitable for multi-person viewing |
| KR102233481B1 (en) * | 2018-10-18 | 2021-03-29 | 주식회사 토비스 | Method of controlling screen and display device having the same |
| US11393213B2 (en) * | 2018-12-05 | 2022-07-19 | AiFi Inc. | Tracking persons in an automated-checkout store |
| US20200250736A1 (en) * | 2019-02-05 | 2020-08-06 | Adroit Worldwide Media, Inc. | Systems, method and apparatus for frictionless shopping |
| KR102249666B1 (en) * | 2019-06-13 | 2021-05-10 | 주식회사 비주얼캠프 | System for service shopping mall of using eye tracking technology and computing device for executing the same |
| JP2020201868A (en) * | 2019-06-13 | 2020-12-17 | コニカミノルタ株式会社 | Display device, display control method, and display control program |
| KR102352794B1 (en) * | 2019-06-24 | 2022-01-17 | 건국대학교 글로컬산학협력단 | Personalized customizable kiosk and its control system |
| KR102299103B1 (en) * | 2019-10-23 | 2021-09-07 | 주식회사 비주얼캠프 | Apparatus for gaze analysis, system and method for gaze analysis of using the same |
| JP2021145198A (en) * | 2020-03-10 | 2021-09-24 | 佐々木 雄司 | Equipment operation system by eye contact |
| US11625973B2 (en) * | 2020-04-22 | 2023-04-11 | Igt | Multi-user gaze detection at electronic gaming devices |
| WO2022160044A1 (en) * | 2021-01-27 | 2022-08-04 | Baüne Ecosystem Inc. | Systems and methods for targeted advertising using a customer mobile computer device or a kiosk |
-
2022
- 2022-01-17 KR KR1020220006674A patent/KR102665453B1/en active Active
-
2023
- 2023-01-11 JP JP2023002697A patent/JP7478339B2/en active Active
- 2023-01-14 US US18/097,201 patent/US12019798B2/en active Active
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102198360B1 (en) | 2019-10-24 | 2021-01-04 | 광운대학교 산학협력단 | Eye tracking system and method based on face images |
| KR102305880B1 (en) * | 2020-06-26 | 2021-09-28 | 이종우 | User's Gaze Tracking Method, and Medium Being Recorded with Program for Executing the Method |
Also Published As
| Publication number | Publication date |
|---|---|
| JP2023104899A (en) | 2023-07-28 |
| KR20230111005A (en) | 2023-07-25 |
| US20230244309A1 (en) | 2023-08-03 |
| JP7478339B2 (en) | 2024-05-07 |
| US12019798B2 (en) | 2024-06-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR102665453B1 (en) | Apparatus and method for providing customized content based on gaze recognition | |
| US12360558B2 (en) | Altering display of virtual content based on mobility status change | |
| WO2022170221A1 (en) | Extended reality for productivity | |
| US12366952B2 (en) | Dynamic carousel interface | |
| KR20110076458A (en) | Display device and control method thereof | |
| CN110476141A (en) | Sight tracing and user terminal for executing this method | |
| US20240104863A1 (en) | Contextual presentation of extended reality content | |
| US20110150298A1 (en) | Identifying a characteristic of an individual utilizing facial recognition and providing a display for the individual | |
| WO2025256266A1 (en) | Method and apparatus for processing information, electronic device, computer-readable storage medium, and computer program product | |
| US20250258581A1 (en) | Media library user interfaces | |
| KR102178396B1 (en) | Method and apparatus for manufacturing image output based on augmented reality | |
| CN114450655B (en) | System and method for quantifying augmented reality interactions | |
| TWI659366B (en) | Method and electronic device for playing advertisements based on facial features | |
| HK40072775A (en) | System and method for quantifying augmented reality interaction |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20220117 |
|
| PA0201 | Request for examination | ||
| PN2301 | Change of applicant |
Patent event date: 20220525 Comment text: Notification of Change of Applicant Patent event code: PN23011R01D |
|
| PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230508 Patent event code: PE09021S01D |
|
| AMND | Amendment | ||
| PG1501 | Laying open of application | ||
| E601 | Decision to refuse application | ||
| PE0601 | Decision on rejection of patent |
Patent event date: 20231016 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20230508 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |
|
| X091 | Application refused [patent] | ||
| AMND | Amendment | ||
| PX0901 | Re-examination |
Patent event code: PX09011S01I Patent event date: 20231016 Comment text: Decision to Refuse Application Patent event code: PX09012R01I Patent event date: 20230704 Comment text: Amendment to Specification, etc. |
|
| PX0701 | Decision of registration after re-examination |
Patent event date: 20240205 Comment text: Decision to Grant Registration Patent event code: PX07013S01D Patent event date: 20240117 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I Patent event date: 20231016 Comment text: Decision to Refuse Application Patent event code: PX07011S01I Patent event date: 20230704 Comment text: Amendment to Specification, etc. Patent event code: PX07012R01I |
|
| X701 | Decision to grant (after re-examination) | ||
| GRNT | Written decision to grant | ||
| PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20240507 Patent event code: PR07011E01D |
|
| PR1002 | Payment of registration fee |
Payment date: 20240507 End annual number: 3 Start annual number: 1 |
|
| PG1601 | Publication of registration |