цифровая электроника
вычислительная техника
встраиваемые системы

 



Нейрокомпьютеры. Простейшие персептроны, подклассы персептронов

Автор: Mike(admin) от 15-01-2019, 05:55

Простейшие персептроны - это системы, составленные из четырех типов компонент. Хотя определения этих компонент, приводимые ниже, более ограничены, чем это желательно для полного рассмотрения персептронов, они достаточны для излагаемых здесь результатов


Нейрокомпьютеры. Простейшие персептроны, подклассы персептронов

Нейрокомпьютеры. Адаптивный классификатор образов, микроэлектронная реализация нейронов

Автор: Mike(admin) от 13-01-2019, 13:55

Машина для адаптивной классификации образов была разработана для иллюстрации процессов искусственного обучения и адаптации. Во время обучения на вход адалина подавались геометрические образы путем замыкания ключей на входном массиве 4x4.


Нейрокомпьютеры

Установка специального отдельного ключа говорила, равен ли желаемый выход для конкретного входного образа +1 или -1. Веса адалина менялись после подачи каждого образа. Машина могла обучаться на незашумленных недеформированных образах многократной подачей на вход, пока итеративный процесс не сходился, или на последовательности зашумленных образов, пока процесс не сходился статистически. Можно комбинировать методы обучения. После обучения адалин можно использовать для классификации исходных образов, а также их зашумленных и смещенных вариаций.

Нейрокомпьютеры. Области применения адаптивных логических элементов

Автор: Mike(admin) от 9-01-2019, 02:35

Если компьютер построен на нейронах, то детали его структуры будут определяться разработчиком во время обучения, а не во время проектирования. Такая концепция построения вычислительных систем будет играть большую роль по мере увеличения размеров системы и ее сложности. Требования современной технологии таковы, что постоянно требуются все более сложные системы, и прогресс в микроэлектронике делает такие системы физически реализуемыми и экономически возможными.


Нейрокомпьютеры. Области применения адаптивных логических элементов

Проблема надежности систем становится острой с увеличением их размеров и сложности. Была предложена схема для повышения надежности цифровых систем, используя избыточность. Надежность систем может быть повышена путем комбинации обучения и избыточности. Рассмотрим систему, состоящую из трех машин, решающих одну и ту же задачу с одинаковыми входными данными.

Нейрокомпьютеры. Развитие нейронной сети

Автор: Mike(admin) от 27-12-2018, 07:35

Впервые рассмотрение нейронной сети, состоящей как бы из чисто логических элементов, принимающих решения, было сделано в 1943 году МакКаллохом и Питсом. Отказавшись от дифференциальных уравнений, которые описывают физические процессы распространения импульса, они представили нейрон как простой переключательный элемент, который может находиться в одном из двух устойчивых состояний - «включено» или «выключено».


Нейрокомпьютеры. Развитие нейронной сети

Для упрощения анализа предполагалось, что нейроны срабатывают только в моменты, определяемые целыми числами. Каждый нейрон характеризуется порогом и временем передачи, которое обычно считается единичным. Импульсы могут быть или положительными или отрицательными. Нейрон срабатывает, если алгебраическая сумма входов в данный момент превышает порог.

Нейрокомпьютеры. Методы распознавания преобразований (преобразование изображений)

Автор: Mike(admin) от 20-12-2018, 03:25

Метод преобразования изображения был наиболее полно развит, как возможная модель работы мозга при решении задачи обобщения восприятии или задачи познавания «универсалий». В этом методе строится система нервных элементов.


Нейрокомпьютеры. Методы распознавания преобразований (преобразование изображений)

Последняя реально производит все возможные преобразования с изображением возбудителя, которое получается от сетчатки, и пытается нормализовать это изображение в позиции, размере, угловом повороте и т. д. так что на некотором этапе изображение может быть наложено и может быть установлена его идентичность с одной из хранящихся в памяти нормализованных форм или «следов в памяти».

Свойства многослойных обучающихся схем

Автор: Mike(admin) от 7-12-2018, 03:35

Способность нервной системы людей и высших животных обучаться и приспосабливаться к изменяющимся внешним условиям стала в последнее время областью, интересующей самых разнообразных специалистов-небиологов. При этом делаются попытки создания очень упрощенных моделей центральной нервной системы животных с сохранением некоторых ее свойств.


Свойства многослойных обучающихся схем

Обучающаяся схема рассматривается как система, обладающая следующими свойствами. Во-первых, существует множество входных переменных и выходная переменная, определяемая этим множеством. Считается, что входные переменные могут принимать два дискретных состояния, которым будет приписываться значение +1 и -1.

Первые попытки изучения нейронных сетей

Автор: Mike(admin) от 5-12-2018, 07:15

Всякому, кто исследовал под микроскопом кусочек нервной ткани, вероятно, бросилась в глаза полная случайность связей между ее элементами. Знание механизмов роста эмбриона и основных биологических различий ткани совершенно исключает предположение о том, что структура одного мозга должна клетка за клеткой, связь за связью воспроизводить структуру другого.


Первые попытки изучения нейронных сетей

Неизбежно мы должны столкнуться со статистическими распределениями структурных переменных. Иначе говоря, точные длины связей, точные положения нейронов, вопрос о том, заканчивается ли какая-то связь на данном нейроне или на соседнем той же разновидности, должны рассматриваться как случайные переменные. В то время как психологи всегда в неявном виде предполагали некоторую степень случайности организации, математики, связанные с задачей моделирования мозга, непосредственно столкнулись с этими фактами совсем недавно.

Akida – первый коммерческий нейрочип от BrainChip

Автор: Mike(admin) от 17-09-2018, 05:55

Искусственный интеллект и нейросети сегодня являются одним из основных направлений развития и исследования в области вычислительной техники. Хотя теоретическая база данного направления достаточно хорошо проработана, аппаратная же, в свою очередь, страдает из-за недостатка нужных инструментов разработки, поскольку нейронные сети, реализованные на обычных компьютерах не обладают достаточным быстродействием.


Akida – первый коммерческий нейрочип от BrainChip

Проблему отчасти решила компания BrainChip, выпустив нейроморфную систему-на-кристалле (NSoC) Akida, построенную на основе спайковых нейронных сетей.

NSynth Super – как создавать музыку с помощью нейросети от Google

Автор: Mike(admin) от 19-03-2018, 18:35

В последнее время искусственный интеллект является одним из основных трендов в области высоких технологий. С помощью нейронных сетей сегодня создаются различные полезные и не очень полезные программы и приложения, которые могут упростить наши усилия в том или ином деле.


NSynth Super – как создавать музыку с помощью нейросети от Google

В перспективе искусственный интеллект, основанный на нейросетях, позволит не только повысить производительность монотонных процессов, но и облегчить некоторые творческие процессы. Так, недавно одно подразделение компании Google разработало музыкальный синтезатор, созданный на основе нейронных сетей и выложило данный проект в открытый доступ.

Использование ПЛИС FPGA в создании нейронных сетей

Автор: Mike(admin) от 25-10-2017, 19:25

Искусственный интеллект (ИИ) – это, несомненно, будущее вычислений, при этом большое количество исследований проводится в попытке создать полезный и надежный ИИ. Часть исследований ИИ включает в себя изучение области, называемой глубоким обучением, являющейся отраслью машинного обучения, которая использует алгоритмы для моделирования абстракций высокого уровня. В настоящее время для моделирования процессов глубокого обучения и обработки этих алгоритмов разрабатываются большие системы с использованием графических процессоров в качестве центрального средства обработки.


Использование ПЛИС FPGA в создании нейронных сетей

Большая часть сегодняшних массовых вычислений использует графические процессоры, потому что закон Мура за последние несколько десятилетий сохранился, однако мы приближаемся к тому времени, когда развитие графических процессоров (GPU) не будет соответствовать требованиям алгоритмов ИИ. В дополнение к вычислительной мощности, эти GPU-системы также потребляют большое количество энергии. Итак, как можно увеличить вычислительную мощность при одновременном снижении энергопотребления в процессе выполнения этих алгоритмов глубокого обучения?