Speach Recognitions

Overview

easy_meeting

photo_2021-10-20 12 07 05

Добро пожаловать в интерфейс сервиса автопротоколирования совещаний Easy Meeting.

Website - http://cf5c-62-192-251-83.ngrok.io/

Принципиально данный сервис можно разделить на три основных и два дополнительных шага.

К основным шагам относится:
💁 Загрузка файла в сервис;
💁 Обработка файла;
💁 Редактирование и сохранение.

Дополнительные шаги включают в себя:
🧐 Получение саммари текста
🤓 Возможность задать вопросы к тексту (возможность поиска по ключевым словам)

Первым этапом работы сервиса является загрузка в него исходного файла. Сервис Easy Meeting может принимать файл из 2-х источников: Загрузить файлы с устройства; Вставить ссылку с YouTube. Во время загрузки файла вам не нужно думать о его формате. Данный сервис работает со всеми форматами (видео/аудио).

01

Для того чтобы загрузить файл с компьютера, необходимо нажать на кнопку “Загрузить файл с устройства”, после чего появится возможность выбрать файл с диска.

02

Если у вас есть ссылка на YouTube, то выберите пункт “Укажите ссылку на YouTube”, после чего вставьте необходимую ссылку в поле.

03

Ожидайте загрузку файла.

04

После того как вы выбрали один из методов загрузки файла и загрузили его в сервис Easy Meeting, вы увидите надпись “Данные загружены! Теперь можно приступить к извлечению файла”.

Чтобы начать обработку файла и извлечение текста из аудио, нажмите кнопку “Обработать”. Начнется обработка файла, вы увидите прогресс бар, в котором будет отражено время выполнения алгоритма преобразования речи в текст.

12

После того как прогресс бар будет заполнен на 100% , появится сообщение “Текст распознан! Теперь его можно посмотреть и при необходимости отредактировать”.

Ниже вы увидите окошко, в котором будет весь распознанный текст с возможностью его редактирования.

07

Когда закончите с редактированием, то ниже данного окошка появятся две кнопки: “Скачать аудио” и “Скачать распознанный текст”.

Также в нашем сервисе предусмотрены две дополнительные функции:

  1. Функция суммаризации текста
  2. Q&A с текстом 💁

08

Для того чтобы получить краткое описание всей конференции и не читать все страницы, вы можете получить выжимку, нажав на кнопку “Получить краткое содержание”, в результате наш алгоритм предложит вам сжатую версию конференции, которой вы сможете ознакомиться с основными тезисами любой встречи.

09

Вторая не менее важная дополнительная функция доступна в интерфейсе в левой части экрана и появляется только после обработки аудио и получения полной версии текста. В данной функции вы сможете задать вопрос по тексту.

11

Например, если вы пропустили совещание и не знаете, шла ли речь о вас или нет 🤓 🙈 вы можете спросить у нейронной сети, что говорили про (конечно) Ивана Ивановича Иванова.

После того как файл обработан и все необходимые файлы скачаны, вы можете проделать эту процедуру еще раз. Для этого просто вернитесь к первому шагу выбора файла.

В связи с ограниченными ресурсами hardware, оптимальное время работы алгоритмов:

Из расчёта записи в 1 час.

  1. Загрузка файла ~2 минут
  2. Обработка файла и получение транскрибации ~ 5 минут
  3. Суммаризация текста ~ 3 минуты
  4. Q&A ~ 1-2 минуты

Для локального запуска необходимо в корневой директории проекта создать папку "models"
В нее поместить файлы находящиеся в папке models на облаке:
https://drive.google.com/drive/folders/1Bkzutf6FJf7Qm05GEf9C6Dmd05wBzjjk?usp=sharing

Далее запустить в cmd:
pip install -r requirements.txt
streamlit run app_run.py

Все глобальные переменные для моделей изменяются в config.py

Спасибо! Надеемся, вам понравился наш быстрый и удобный сервис Easy Meeting!

С уважением,
команда Teenage Mutant Ninja Turtles (TMNT)

10

Owner
Maksim
Maksim
NLP-based analysis of poor Chinese movie reviews on Douban

douban_embedding 豆瓣中文影评差评分析 1. NLP NLP(Natural Language Processing)是指自然语言处理,他的目的是让计算机可以听懂人话。 下面是我将2万条豆瓣影评训练之后,随意输入一段新影评交给神经网络,最终AI推断出的结果。 "很好,演技不错

3 Apr 15, 2022
Official PyTorch implementation of "Dual Path Learning for Domain Adaptation of Semantic Segmentation".

Dual Path Learning for Domain Adaptation of Semantic Segmentation Official PyTorch implementation of "Dual Path Learning for Domain Adaptation of Sema

27 Dec 22, 2022
PyTorch impelementations of BERT-based Spelling Error Correction Models.

PyTorch impelementations of BERT-based Spelling Error Correction Models

Heng Cai 209 Dec 30, 2022
American Sign Language (ASL) to Text Converter

Signterpreter American Sign Language (ASL) to Text Converter Recommendations Although there is grayscale and gaussian blur, we recommend that you use

0 Feb 20, 2022
FastFormers - highly efficient transformer models for NLU

FastFormers FastFormers provides a set of recipes and methods to achieve highly efficient inference of Transformer models for Natural Language Underst

Microsoft 678 Jan 05, 2023
Implementation / replication of DALL-E, OpenAI's Text to Image Transformer, in Pytorch

Implementation / replication of DALL-E, OpenAI's Text to Image Transformer, in Pytorch

Phil Wang 5k Jan 02, 2023
Fixes mojibake and other glitches in Unicode text, after the fact.

ftfy: fixes text for you print(fix_encoding("(ง'⌣')ง")) (ง'⌣')ง Full documentation: https://ftfy.readthedocs.org Testimonials “My life is li

Luminoso Technologies, Inc. 3.4k Dec 29, 2022
中文生成式预训练模型

T5 PEGASUS 中文生成式预训练模型,以mT5为基础架构和初始权重,通过类似PEGASUS的方式进行预训练。 详情可见:https://kexue.fm/archives/8209 Tokenizer 我们将T5 PEGASUS的Tokenizer换成了BERT的Tokenizer,它对中文更

410 Jan 03, 2023
Arabic speech recognition, classification and text-to-speech.

klaam Arabic speech recognition, classification and text-to-speech using many advanced models like wave2vec and fastspeech2. This repository allows tr

ARBML 177 Dec 27, 2022
CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Generation

CPT This repository contains code and checkpoints for CPT. CPT: A Pre-Trained Unbalanced Transformer for Both Chinese Language Understanding and Gener

fastNLP 342 Jan 05, 2023
Just a Basic like Language for Zeno INC

zeno-basic-language Just a Basic like Language for Zeno INC This is written in 100% python. this is basic language like language. so its not for big p

Voidy Devleoper 1 Dec 18, 2021
Ongoing research training transformer language models at scale, including: BERT & GPT-2

What is this fork of Megatron-LM and Megatron-DeepSpeed This is a detached fork of https://github.com/microsoft/Megatron-DeepSpeed, which in itself is

BigScience Workshop 316 Jan 03, 2023
The SVO-Probes Dataset for Verb Understanding

The SVO-Probes Dataset for Verb Understanding This repository contains the SVO-Probes benchmark designed to probe for Subject, Verb, and Object unders

DeepMind 20 Nov 30, 2022
A repo for open resources & information for people to succeed in PhD in CS & career in AI / NLP

A repo for open resources & information for people to succeed in PhD in CS & career in AI / NLP

420 Dec 28, 2022
A python package for deep multilingual punctuation prediction.

This python library predicts the punctuation of English, Italian, French and German texts. We developed it to restore the punctuation of transcribed spoken language.

Oliver Guhr 27 Dec 22, 2022
Finding Label and Model Errors in Perception Data With Learned Observation Assertions

Finding Label and Model Errors in Perception Data With Learned Observation Assertions This is the project page for Finding Label and Model Errors in P

Stanford Future Data Systems 17 Oct 14, 2022
Get list of common stop words in various languages in Python

Python Stop Words Table of contents Overview Available languages Installation Basic usage Python compatibility Overview Get list of common stop words

Alireza Savand 142 Dec 21, 2022
KoBART model on huggingface transformers

KoBART-Transformers SKT에서 공개한 KoBART를 편리하게 사용할 수 있게 transformers로 포팅하였습니다. Install (Optional) BartModel과 PreTrainedTokenizerFast를 이용하면 설치하실 필요 없습니다. p

Hyunwoong Ko 58 Dec 07, 2022
Code repository of the paper Neural circuit policies enabling auditable autonomy published in Nature Machine Intelligence

Code repository of the paper Neural circuit policies enabling auditable autonomy published in Nature Machine Intelligence

9 Jan 08, 2023
Funnel-Transformer: Filtering out Sequential Redundancy for Efficient Language Processing

Introduction Funnel-Transformer is a new self-attention model that gradually compresses the sequence of hidden states to a shorter one and hence reduc

GUOKUN LAI 197 Dec 11, 2022