Speach Recognitions

Overview

easy_meeting

photo_2021-10-20 12 07 05

Добро пожаловать в интерфейс сервиса автопротоколирования совещаний Easy Meeting.

Website - http://cf5c-62-192-251-83.ngrok.io/

Принципиально данный сервис можно разделить на три основных и два дополнительных шага.

К основным шагам относится:
💁 Загрузка файла в сервис;
💁 Обработка файла;
💁 Редактирование и сохранение.

Дополнительные шаги включают в себя:
🧐 Получение саммари текста
🤓 Возможность задать вопросы к тексту (возможность поиска по ключевым словам)

Первым этапом работы сервиса является загрузка в него исходного файла. Сервис Easy Meeting может принимать файл из 2-х источников: Загрузить файлы с устройства; Вставить ссылку с YouTube. Во время загрузки файла вам не нужно думать о его формате. Данный сервис работает со всеми форматами (видео/аудио).

01

Для того чтобы загрузить файл с компьютера, необходимо нажать на кнопку “Загрузить файл с устройства”, после чего появится возможность выбрать файл с диска.

02

Если у вас есть ссылка на YouTube, то выберите пункт “Укажите ссылку на YouTube”, после чего вставьте необходимую ссылку в поле.

03

Ожидайте загрузку файла.

04

После того как вы выбрали один из методов загрузки файла и загрузили его в сервис Easy Meeting, вы увидите надпись “Данные загружены! Теперь можно приступить к извлечению файла”.

Чтобы начать обработку файла и извлечение текста из аудио, нажмите кнопку “Обработать”. Начнется обработка файла, вы увидите прогресс бар, в котором будет отражено время выполнения алгоритма преобразования речи в текст.

12

После того как прогресс бар будет заполнен на 100% , появится сообщение “Текст распознан! Теперь его можно посмотреть и при необходимости отредактировать”.

Ниже вы увидите окошко, в котором будет весь распознанный текст с возможностью его редактирования.

07

Когда закончите с редактированием, то ниже данного окошка появятся две кнопки: “Скачать аудио” и “Скачать распознанный текст”.

Также в нашем сервисе предусмотрены две дополнительные функции:

  1. Функция суммаризации текста
  2. Q&A с текстом 💁

08

Для того чтобы получить краткое описание всей конференции и не читать все страницы, вы можете получить выжимку, нажав на кнопку “Получить краткое содержание”, в результате наш алгоритм предложит вам сжатую версию конференции, которой вы сможете ознакомиться с основными тезисами любой встречи.

09

Вторая не менее важная дополнительная функция доступна в интерфейсе в левой части экрана и появляется только после обработки аудио и получения полной версии текста. В данной функции вы сможете задать вопрос по тексту.

11

Например, если вы пропустили совещание и не знаете, шла ли речь о вас или нет 🤓 🙈 вы можете спросить у нейронной сети, что говорили про (конечно) Ивана Ивановича Иванова.

После того как файл обработан и все необходимые файлы скачаны, вы можете проделать эту процедуру еще раз. Для этого просто вернитесь к первому шагу выбора файла.

В связи с ограниченными ресурсами hardware, оптимальное время работы алгоритмов:

Из расчёта записи в 1 час.

  1. Загрузка файла ~2 минут
  2. Обработка файла и получение транскрибации ~ 5 минут
  3. Суммаризация текста ~ 3 минуты
  4. Q&A ~ 1-2 минуты

Для локального запуска необходимо в корневой директории проекта создать папку "models"
В нее поместить файлы находящиеся в папке models на облаке:
https://drive.google.com/drive/folders/1Bkzutf6FJf7Qm05GEf9C6Dmd05wBzjjk?usp=sharing

Далее запустить в cmd:
pip install -r requirements.txt
streamlit run app_run.py

Все глобальные переменные для моделей изменяются в config.py

Спасибо! Надеемся, вам понравился наш быстрый и удобный сервис Easy Meeting!

С уважением,
команда Teenage Mutant Ninja Turtles (TMNT)

10

Owner
Maksim
Maksim
🎐 a python library for doing approximate and phonetic matching of strings.

jellyfish Jellyfish is a python library for doing approximate and phonetic matching of strings. Written by James Turk James Turk 1.8k Dec 21, 2022

To create a deep learning model which can explain the content of an image in the form of speech through caption generation with attention mechanism on Flickr8K dataset.

To create a deep learning model which can explain the content of an image in the form of speech through caption generation with attention mechanism on Flickr8K dataset.

Ragesh Hajela 0 Feb 08, 2022
Speach Recognitions

easy_meeting Добро пожаловать в интерфейс сервиса автопротоколирования совещаний Easy Meeting. Website - http://cf5c-62-192-251-83.ngrok.io/ Принципиа

Maksim 3 Feb 18, 2022
The guide to tackle with the Text Summarization

The guide to tackle with the Text Summarization

Takahiro Kubo 1.2k Dec 30, 2022
Simple python code to fix your combo list by removing any text after a separator or removing duplicate combos

Combo List Fixer A simple python code to fix your combo list by removing any text after a separator or removing duplicate combos Removing any text aft

Hamidreza Dehghan 3 Dec 05, 2022
A benchmark for evaluation and comparison of various NLP tasks in Persian language.

Persian NLP Benchmark The repository aims to track existing natural language processing models and evaluate their performance on well-known datasets.

Mofid AI 68 Dec 19, 2022
A large-scale (194k), Multiple-Choice Question Answering (MCQA) dataset designed to address realworld medical entrance exam questions.

MedMCQA MedMCQA : A Large-scale Multi-Subject Multi-Choice Dataset for Medical domain Question Answering A large-scale, Multiple-Choice Question Answe

MedMCQA 24 Nov 30, 2022
BERN2: an advanced neural biomedical namedentity recognition and normalization tool

BERN2 We present BERN2 (Advanced Biomedical Entity Recognition and Normalization), a tool that improves the previous neural network-based NER tool by

DMIS Laboratory - Korea University 99 Jan 06, 2023
skweak: A software toolkit for weak supervision applied to NLP tasks

Labelled data remains a scarce resource in many practical NLP scenarios. This is especially the case when working with resource-poor languages (or text domains), or when using task-specific labels wi

Norsk Regnesentral (Norwegian Computing Center) 850 Dec 28, 2022
A collection of scripts to preprocess ASR datasets and finetune language-specific Wav2Vec2 XLSR models

wav2vec-toolkit A collection of scripts to preprocess ASR datasets and finetune language-specific Wav2Vec2 XLSR models This repository accompanies the

Anton Lozhkov 29 Oct 23, 2022
NLP tool to extract emotional phrase from tweets 🤩

Emotional phrase extractor Extract phrase in the given text that is used to express the sentiment. Capturing sentiment in language is important in the

Shahul ES 38 Oct 17, 2022
TLA - Twitter Linguistic Analysis

TLA - Twitter Linguistic Analysis Tool for linguistic analysis of communities TLA is built using PyTorch, Transformers and several other State-of-the-

Tushar Sarkar 47 Aug 14, 2022
Extract city and country mentions from Text like GeoText without regex, but FlashText, a Aho-Corasick implementation.

flashgeotext ⚡ 🌍 Extract and count countries and cities (+their synonyms) from text, like GeoText on steroids using FlashText, a Aho-Corasick impleme

Ben 57 Dec 16, 2022
Awesome-NLP-Research (ANLP)

Awesome-NLP-Research (ANLP)

Language, Information, and Learning at Yale 72 Dec 19, 2022
Skipgram Negative Sampling in PyTorch

PyTorch SGNS Word2Vec's SkipGramNegativeSampling in Python. Yet another but quite general negative sampling loss implemented in PyTorch. It can be use

Jamie J. Seol 287 Dec 14, 2022
🌐 Translation microservice powered by AI

Dot Translate 🌐 A microservice for quick and local translation using A.I. This service starts a local webserver used for neural machine translation.

Dot HQ 48 Nov 22, 2022
Finally, some decent sample sentences

tts-dataset-prompts This repository aims to be a decent set of sentences for people looking to clone their own voices (e.g. using Tacotron 2). Each se

hecko 19 Dec 13, 2022
What are the best Systems? New Perspectives on NLP Benchmarking

What are the best Systems? New Perspectives on NLP Benchmarking In Machine Learning, a benchmark refers to an ensemble of datasets associated with one

Pierre Colombo 12 Nov 03, 2022
The NewSHead dataset is a multi-doc headline dataset used in NHNet for training a headline summarization model.

This repository contains the raw dataset used in NHNet [1] for the task of News Story Headline Generation. The code of data processing and training is available under Tensorflow Models - NHNet.

Google Research Datasets 31 Jul 15, 2022
NLP-Project - Used an API to scrape 2000 reddit posts, then used NLP analysis and created a classification model to mixed succcess

Project 3: Web APIs & NLP Problem Statement How do r/Libertarian and r/Neoliberal differ on Biden post-inaguration? The goal of the project is to see

Adam Muhammad Klesc 2 Mar 29, 2022