Speach Recognitions

Overview

easy_meeting

photo_2021-10-20 12 07 05

Добро пожаловать в интерфейс сервиса автопротоколирования совещаний Easy Meeting.

Website - http://cf5c-62-192-251-83.ngrok.io/

Принципиально данный сервис можно разделить на три основных и два дополнительных шага.

К основным шагам относится:
💁 Загрузка файла в сервис;
💁 Обработка файла;
💁 Редактирование и сохранение.

Дополнительные шаги включают в себя:
🧐 Получение саммари текста
🤓 Возможность задать вопросы к тексту (возможность поиска по ключевым словам)

Первым этапом работы сервиса является загрузка в него исходного файла. Сервис Easy Meeting может принимать файл из 2-х источников: Загрузить файлы с устройства; Вставить ссылку с YouTube. Во время загрузки файла вам не нужно думать о его формате. Данный сервис работает со всеми форматами (видео/аудио).

01

Для того чтобы загрузить файл с компьютера, необходимо нажать на кнопку “Загрузить файл с устройства”, после чего появится возможность выбрать файл с диска.

02

Если у вас есть ссылка на YouTube, то выберите пункт “Укажите ссылку на YouTube”, после чего вставьте необходимую ссылку в поле.

03

Ожидайте загрузку файла.

04

После того как вы выбрали один из методов загрузки файла и загрузили его в сервис Easy Meeting, вы увидите надпись “Данные загружены! Теперь можно приступить к извлечению файла”.

Чтобы начать обработку файла и извлечение текста из аудио, нажмите кнопку “Обработать”. Начнется обработка файла, вы увидите прогресс бар, в котором будет отражено время выполнения алгоритма преобразования речи в текст.

12

После того как прогресс бар будет заполнен на 100% , появится сообщение “Текст распознан! Теперь его можно посмотреть и при необходимости отредактировать”.

Ниже вы увидите окошко, в котором будет весь распознанный текст с возможностью его редактирования.

07

Когда закончите с редактированием, то ниже данного окошка появятся две кнопки: “Скачать аудио” и “Скачать распознанный текст”.

Также в нашем сервисе предусмотрены две дополнительные функции:

  1. Функция суммаризации текста
  2. Q&A с текстом 💁

08

Для того чтобы получить краткое описание всей конференции и не читать все страницы, вы можете получить выжимку, нажав на кнопку “Получить краткое содержание”, в результате наш алгоритм предложит вам сжатую версию конференции, которой вы сможете ознакомиться с основными тезисами любой встречи.

09

Вторая не менее важная дополнительная функция доступна в интерфейсе в левой части экрана и появляется только после обработки аудио и получения полной версии текста. В данной функции вы сможете задать вопрос по тексту.

11

Например, если вы пропустили совещание и не знаете, шла ли речь о вас или нет 🤓 🙈 вы можете спросить у нейронной сети, что говорили про (конечно) Ивана Ивановича Иванова.

После того как файл обработан и все необходимые файлы скачаны, вы можете проделать эту процедуру еще раз. Для этого просто вернитесь к первому шагу выбора файла.

В связи с ограниченными ресурсами hardware, оптимальное время работы алгоритмов:

Из расчёта записи в 1 час.

  1. Загрузка файла ~2 минут
  2. Обработка файла и получение транскрибации ~ 5 минут
  3. Суммаризация текста ~ 3 минуты
  4. Q&A ~ 1-2 минуты

Для локального запуска необходимо в корневой директории проекта создать папку "models"
В нее поместить файлы находящиеся в папке models на облаке:
https://drive.google.com/drive/folders/1Bkzutf6FJf7Qm05GEf9C6Dmd05wBzjjk?usp=sharing

Далее запустить в cmd:
pip install -r requirements.txt
streamlit run app_run.py

Все глобальные переменные для моделей изменяются в config.py

Спасибо! Надеемся, вам понравился наш быстрый и удобный сервис Easy Meeting!

С уважением,
команда Teenage Mutant Ninja Turtles (TMNT)

10

Owner
Maksim
Maksim
Python package to easily retrain OpenAI's GPT-2 text-generating model on new texts

gpt-2-simple A simple Python package that wraps existing model fine-tuning and generation scripts for OpenAI's GPT-2 text generation model (specifical

Max Woolf 3.1k Jan 07, 2023
Implementation of ProteinBERT in Pytorch

ProteinBERT - Pytorch (wip) Implementation of ProteinBERT in Pytorch. Original Repository Install $ pip install protein-bert-pytorch Usage import torc

Phil Wang 92 Dec 25, 2022
Switch spaces for knowledge graph embeddings

SwisE Switch spaces for knowledge graph embeddings. Requirements: python3 pytorch numpy tqdm Reproduce the results To reproduce the reported results,

Shuai Zhang 4 Dec 01, 2021
Dope Wars game engine on StarkNet L2 roll-up

RYO Dope Wars game engine on StarkNet L2 roll-up. What TI-83 drug wars built as smart contract system. Background mechanism design notion here. Initia

104 Dec 04, 2022
In this project, we compared Spanish BERT and Multilingual BERT in the Sentiment Analysis task.

Applying BERT Fine Tuning to Sentiment Classification on Amazon Reviews Abstract Sentiment analysis has made great progress in recent years, due to th

Alexander Leonardo Lique Lamas 5 Jan 03, 2022
Legal text retrieval for python

legal-text-retrieval Overview This system contains 2 steps: generate training data containing negative sample found by mixture score of cosine(tfidf)

Nguyễn Minh Phương 22 Dec 06, 2022
An open source library for deep learning end-to-end dialog systems and chatbots.

DeepPavlov is an open-source conversational AI library built on TensorFlow, Keras and PyTorch. DeepPavlov is designed for development of production re

Neural Networks and Deep Learning lab, MIPT 6k Dec 31, 2022
Awesome-NLP-Research (ANLP)

Awesome-NLP-Research (ANLP)

Language, Information, and Learning at Yale 72 Dec 19, 2022
A python framework to transform natural language questions to queries in a database query language.

__ _ _ _ ___ _ __ _ _ / _` | | | |/ _ \ '_ \| | | | | (_| | |_| | __/ |_) | |_| | \__, |\__,_|\___| .__/ \__, | |_| |_| |___/

Machinalis 1.2k Dec 18, 2022
A high-level Python library for Quantum Natural Language Processing

lambeq About lambeq is a toolkit for quantum natural language processing (QNLP). Documentation: https://cqcl.github.io/lambeq/ Getting started Prerequ

Cambridge Quantum 315 Jan 01, 2023
Unsupervised Language Model Pre-training for French

FlauBERT and FLUE FlauBERT is a French BERT trained on a very large and heterogeneous French corpus. Models of different sizes are trained using the n

GETALP 212 Dec 10, 2022
HuggingSound: A toolkit for speech-related tasks based on HuggingFace's tools

HuggingSound HuggingSound: A toolkit for speech-related tasks based on HuggingFace's tools. I have no intention of building a very complex tool here.

Jonatas Grosman 247 Dec 26, 2022
HAN2HAN : Hangul Font Generation

HAN2HAN : Hangul Font Generation

Changwoo Lee 36 Dec 28, 2022
Script to download some free japanese lessons in portuguse from NHK

Nihongo_nhk This is a script to download some free japanese lessons in portuguese from NHK. It can be executed by installing the packages with: pip in

Matheus Alves 2 Jan 06, 2022
Applied Natural Language Processing in the Enterprise - An O'Reilly Media Publication

Applied Natural Language Processing in the Enterprise This is the companion repo for Applied Natural Language Processing in the Enterprise, an O'Reill

Applied Natural Language Processing in the Enterprise 95 Jan 05, 2023
hashily is a Python module that provides a variety of text decoding and encoding operations.

hashily is a python module that performs a variety of text decoding and encoding functions. It also various functions for encrypting and decrypting text using various ciphers.

DevMysT 5 Jul 17, 2022
Translation for Trilium Notes. Trilium Notes 中文版.

Trilium Translation 中文说明 This repo provides a translation for the awesome Trilium Notes. Currently, I have translated Trilium Notes into Chinese. Test

743 Jan 08, 2023
Python library to make development of portfolio analysis faster and easier

Trafalgar Python library to make development of portfolio analysis faster and easier Installation 🔥 For the moment, Trafalgar is still in beta develo

Santosh Passoubady 641 Jan 01, 2023
SciBERT is a BERT model trained on scientific text.

SciBERT is a BERT model trained on scientific text.

AI2 1.2k Dec 24, 2022
TensorFlow code and pre-trained models for BERT

BERT ***** New March 11th, 2020: Smaller BERT Models ***** This is a release of 24 smaller BERT models (English only, uncased, trained with WordPiece

Google Research 32.9k Jan 08, 2023