Перспективы развития компьютерной техники
Содержание
Вступление……………………………………………….……………..3
Перспективы развития Intel………………………………………...4
Оптические компьютеры………………………………………...…6
Квантовый компьютер……………………………………………...8
Нейрокомпьютер…………………………………………………...10
Заключение……………………………………………………………..11
Список литературы…………………………………………………….12
На протяжении жизни всего лишь одного поколения рядом с человеком вырос странный новый вид: вычислительные и подобные им машины, с которыми, как он обнаружил, ему придется делить мир.
Ни история, ни философия, ни здравый смысл не могут подсказать нам, как эти машины повлияют на нашу жизнь в будущем, ибо они работают совсем не так, как машины, созданные в эру промышленной революции.
Марвин Минский
Вступление
Компьютеры появились очень давно в нашем мире, но только в последнее время их начали так усиленно использовать во многих отраслях человеческой жизни. Ещё десять лет назад было редкостью увидеть какой-нибудь персональный компьютер — они были, но были очень дорогие, и даже не каждая фирма могла иметь у себя в офисе компьютер. А теперь? Теперь в каждом третьем доме есть компьютер, который уже глубоко вошёл в жизнь самих обитателей дома.
Сама идея создания искусственного интеллекта появилась очень давно, но только в 20 столетии её начали приводить в исполнение. Сначала появились огромные компьютеры, которые были зачастую размером с огромный дом. Использование таких махин, как вы сами понимаете, было не очень удобно. Но что поделаешь? Но мир не стоял на одном месте эволюционного развития — менялись люди, менялась их Среда обитания, и вместе с ней менялись и сами технологии, всё больше совершенствуясь. И компьютеры становились всё меньше и меньше по своим размерам, пока не достигли сегодняшних размеров.
Современные вычислительные машины представляют одно из самых значительных достижений человеческой мысли, влияние, которого на развитие научно-технического прогресса трудно переоценить. Области применения ЭВМ непрерывно расширяются. Этому в значительной степени способствует распространение персональных ЭВМ, и особенно микроЭВМ.
За время, прошедшее с 50-х годов, цифровая ЭВМ превратилась из “волшебного”, но при этом дорогого, уникального и перегретого нагромождения электронных ламп, проводов и магнитных сердечников в небольшую по размерам машину - персональный компьютер - состоящий из миллионов крошечных полупроводниковых приборов, которые упакованы в небольшие пластмассовые коробочки.
В результате этого превращения компьютеры стали применяться повсюду. Они управляют работой кассовых аппаратов, следят за работой автомобильных систем зажигания, ведут учёт семейного бюджета, или просто используются в качестве развлекательного комплекса, но это только малая часть возможностей современных компьютеров. Более того, бурный прогресс полупроводниковой микроэлектроники, представляющей собой базу вычислительной техники, свидетельствует о том, что сегодняшний уровень как самих компьютеров, так и областей их применения является лишь слабым подобием того, что наступит в будущем. Постепенно изучение компьютерной техники пытаются вводить в программы школьного обучения как обязательный предмет, чтобы ребёнок смог уже с довольно раннего возраста знать строение и возможности компьютеров. А в самих школах (в основном на западе и в Америке) уже многие годы компьютеры применялись для ведения учебной документации, а теперь они используются при изучении многих учебных дисциплин, не имеющих прямого отношения к вычислительной технике.
1. Перспективы развития Intel
В этой работе я постараюсь заглянуть в ближайшие планы Intel.
27 сентября 1999 года - 133 МГц FSB
Итак, с этого дня начинается жизнь систем с частотой шины 133 МГц. Казалось бы, VIA уже давно выпустил свой чипсет Apollo Pro133, который имеет возможность использования этой частоты, однако процессоров поддерживающих такую FSB не было, потому о полноценных 133 МГц говорить не приходилось. В конце сентября ситуация изменилась - на рынок выпустили первый процессор, рассчитанный на эту частоту. Правда, к сожалению, этим процессором пока не станет давно ожидаемый Coppermine, представляющий собой Pentium III, сделанный на базе технологии 0.18 мкм и имеющий интегрированный в ядро и работающий на полной частоте процессора кеш второго уровня размером 256 Кбайт. Ошибки, допущенные при проектировании этого ядра, не дают возможности представить этот процессор в конце сентября - его появлением будет ознаменован последний квартал этого года.
Но одними процессорами Intel, ясное дело, не ограничится - в этом случае создалась бы достаточно нелепая ситуация - новинки поддерживались бы только материнскими платами на чипсетах VIA. В этот же день свет увидят и два новых чипсета i820 и i810e. Выход i820 - своего рода эпохальное событие - этот чипсет откладывался и переделывался несметное количество раз - первой официальной датой его выхода был июнь этого года. Но, наконец-то разработчики и потенциальные потребители пришли к какому-никакому соглашению, что и позволит вывести i820 на рынок.
Самым большим плюсом, и самым большим минусом i820 является поддерживаемый им совершенно новый для PC тип памяти - Direct Rambus DRAM. В общем, самое сомнительное звено - первые материнские платы на чипсете i820 будут требовать от пользователя полностью сменить используемую память, с модулей DIMM перейти на RIMM. Что, в сочетании с их дороговизной и немалыми объемами памяти, требуемыми сегодняшними приложениями, выльется в копеечку, и вряд ли вызовет массовый энтузиазм.
25 октября 1999 года - Coppermine
Технологию 0.18 мкм - в жизнь! Этот девиз однозначно описывает все события, которые произошли 25 октября. В этот день начаты массовые продажи Pentium III-процессоров, выпущенных по новой технологии и начиненные новым ядром - Coppermine. Наличие в нем 256-килобайтного встроенного кеша второго уровня, работающего на частоте ядра и подобного тому, что мы имеем сегодня в Celeron, гарантирует новое увеличение производительности.
А дальше?
Что будет потом, зная гибкость самой любимой компании, точно сказать уже достаточно тяжело. Однако некие общие тенденции можно описать.
Что касается процессоров, то помимо дальнейшего наращивания скоростей, нас будет ждать и еще один ребенок из семейки Coppermine. Это новый Celeron, сделанный на этом ядре, который был запущен где-то в районе первого квартала 2000 года. Главные отличия от существующих Celeron будут скрываться в поддержке частоты системной шины 100 МГц и долгожданной поддержке набора интеловских SIMD-инструкций SSE.
После этого каких-то кардинальных событий с х86 процессорами от Intel не случалось аж до 2001 года, когда миру было представлено новое процессорное ядро - Willamette, обеспечивающее безпроблемную работу на частотах более гигагерца, преодолеть который существующие архитектуры вряд ли смогут. Willamette будет иметь L1-кеш объемом 256 Кбайт и L2-кеш как минимум 1 Мбайт. При этом данный CPU начнет выпускаться по технологии 0.18 мкм с последующим переходом на 0.13 мкм и медную технологию, вводить которую на 0.18 мкм Intel, в отличие от AMD, считает нецелесообразным.
Вторая интересность, поджидающая нас в том же втором квартале - Timna. Это немного напоминает Cyrix MediaGX, поскольку является Pentium III процессором c интегрированным L2-кешем 128 Кбайт, графическим контроллером и контроллером памяти, поддерживающем Direct Rambus DRAM. Timna, по идее, будет выпускаться также в виде FC-PGA, устанавливаемым в новый сокет - PGA370-S. Впрочем, и это пока только проект, силикона еще нет, потому все может измениться.
Не остановится на месте и направление Mainstream-чипсетов. Выход Camino2 произойдет во втором-третьем квартале 2000 года. Этот чипсет, представляющий собой усовершенствованный i820, будет специально оптимизироваться под Coppermine. В его состав помимо всего прочего будет входить четырехпортовый контроллер USB, контроллер Ultra ATA/100 (еще бы знать, что это такое, многоканальный AC97 кодек, интегрированный LAN-контроллер и некоторые другие возможности, которые к тому времени давно уже появятся в чипсетах VIA. В общем, скучать не придется.
2. Оптические компьютеры
Развитие вычислительной техники представляет собой постоянно сменяющие друг друга физические способы реализации логических алгоритмов - от механических устройств (вычислительная машина Бэббиджа) к ламповым (компьютеры 40-50-х годов Марк I и Марк II), затем к транзисторным и, наконец, к интегральным схемам. И уже на рубеже XXI века идут разговоры о скором достижении пределов применения полупроводниковых технологий и появлении вычислительных устройств, работающих на совершенно ином принципе. Все это свидетельствует о том, что прогресс не стоит на месте, и с течением времени ученые открывают новые возможности создания вычислительных систем, принципиально отличающихся от широко применяемых компьютеров. Существует несколько возможных альтернатив замены современных компьютеров, одна из которых - создание так называемых оптических компьютеров, носителем информации в которых будет световой поток.
Проникновение оптических методов в вычислительную технику ведется по трем основным направлениям. Первое основано на использовании аналоговых интерференционных оптических вычислений для решения отдельных специальных задач, связанных с необходимостью быстрого выполнения интегральных преобразований. Второе направление связано с использованием оптических соединений для передачи сигналов на различных ступенях иерархии элементов вычислительной техники, т.е. создание чисто оптических или гибридных (оптоэлектронных) соединений вместо обычных, менее надежных, электрических соединений. При этом в конструкции компьютера появляются новые элементы - оптоэлектронные преобразователи электрических сигналов в оптические и обратно. Но самым перспективным направлением развития оптических вычислительных устройств является создание компьютера, полностью состоящего из оптических устройств обработки информации. Это направление интенсивно развивают с начала 80-х годов ведущие научные центры (MTI, Sandia Laboratories и др.) и основные компании-производители компьютерного оборудования (Intel, IBM).
В основе работы различных компонентов оптического компьютера (трансфазаторы-оптические транзисторы, триггеры, ячейки памяти, носители информации) лежит явление оптической бистабильности. Оптическая бистабильность - это одно из проявлений взаимодействия света с веществом в нелинейных системах с обратной связью, при котором определенной интенсивности и поляризации падающего на вещество излучения соответствуют два (аналог 0 и 1 в полупроводниковых системах) возможных стационарных состояния световой волны, прошедшей через вещество, отличающихся амплитудой и (или) параметрами поляризации. Причем предыдущее состояние вещества однозначно определяет, какое из двух состояний световой волны реализуется на выходе. Для большего понимания явление оптической бистабильности можно сравнить с обычной петлей магнитного гистерезиса (эффект, используемый в магнитных носителях информации). Увеличение интенсивности падающего на вещество светового луча до некоторого значения I>1> приводит к резкому возрастанию интенсивности прошедшего луча; на обратном же ходе при уменьшении интенсивности падающего луча до некоторого значения I>2><I>1> интенсивность прошедшего луча остается постоянной, а затем резко падает. Таким образом, интенсивности падающего пучка I, значение которой находится в пределах петли гистерезиса, соответствуют два значения интенсивности прошедшего пучка, зависящих от предыдущего оптического состояния поглощающего вещества.
Весь набор полностью оптических логических устройств для синтеза более сложных блоков оптических компьютеров реализуется на основе пассивных нелинейных резонаторов-интерферометров. В зависимости от начальных условий (начального положения пика пропускания и начальной интенсивности оптического излучения) в пассивном нелинейном резонаторе, нелинейный процесс завершается установлением одного из двух устойчивых состояний пропускания падающего излучения. А из нескольких нелинейных резонаторов можно собрать любой, более сложный логический элемент (триггер).
Элементы памяти оптического компьютера представляют собой полупроводниковые нелинейные оптические интерферометры, в основном, созданными из арсенида галлия (GaAs). Минимальный размер оптического элемента памяти определяется минимально необходимым числом атомов, для которого устойчиво наблюдается оптическая бистабильность. Это число составляет ~1000 атомов, что соответствует 1-10 нанометрам.
К настоящему времени уже созданы и оптимизированы отдельные составляющие оптических компьютеров – оптические процессоры, ячейки памяти), однако до полной сборки еще далеко. Основной проблемой, стоящей перед учеными, является синхронизация работы отдельных элементов оптического компьютера в единой системе, поскольку уже существующие элементы характеризуются различными параметрами рабочей волны светового излучения (интенсивность, длина волны), и уменьшение его размера. Если для конструирования оптического компьютера использовать уже разработанные компоненты, то обычный PC имел бы размеры легкового автомобиля. Однако применение оптического излучения в качестве носителя информации имеет ряд потенциальных преимуществ по сравнению с электрическими сигналами, а именно:
световые потоки, в отличие от электрических, могут пересекаться друг с другом;
световые потоки могут быть локализованы в поперечном направлении до нанометровых размеров и передаваться по свободному пространству;
скорость распространения светового сигнала выше скорости электрического;
взаимодействие световых потоков с нелинейными средами распределено по всей среде, что дает новые степени свободы (по сравнению с электронными системами) в организации связи и создании параллельных архитектур.
Вообще, создание большего количества параллельных архитектур, по сравнению с полупроводниковыми компьютерами, является основным достоинством оптических компьютеров, оно позволяет преодолеть ограничения по быстродействию и параллельной обработке информации, свойственные современным ЭВМ. Развитие оптических технологий все равно будет продолжаться, поскольку полученные результаты важны не только для создания оптических компьютеров, но также и для оптических коммуникаций и сети Internet.
3. Квантовый компьютер
Создание качественно новых вычислительных систем с более высокой производительностью и некоторыми характеристиками искусственного интеллекта, например с возможностью самообучения,- очень актуальная тема. Последние десять лет такие разработки ведутся во многих направлениях - наиболее успешными и быстро развивающимися из них являются квантовые компьютеры, нейрокомпьютеры и оптические компьютеры, поскольку современная элементная и технологическая база имеет все необходимое для их создания. Хотя при этом возникают определенные проблемы. Но не будем забегать вперед - все перечисленные виды компьютеров и проблемы с их разработкой подробно описаны в этой статье. Начнем с предпосылок создания более скоростных, а значит, и более высокопроизводительных вычислительных систем.
Итак, что же такое квантовый компьютер? Основной его строительной единицей является кубит (qubit, Quantum Bit). Классический бит имеет лишь два состояния - 0 и 1, тогда как состояний кубита значительно больше. Для описания состояния квантовой системы было введено понятие волновой функции, ее значение представляется в виде вектора с большим числом значений. Существуют волновые функции, которые называются собственными для какой-либо определенной величины. Квантовая система может находиться в состоянии с волновой функцией, равной линейной комбинации собственных функций, соответствующих каждому из возможных значений (такое состояние называется сложным), т. е. физически - ни в возбужденном, ни в основном состоянии. Это означает, что кубит в одну единицу времени равен и 0, и 1, тогда как классический бит в ту же единицу времени равен либо 0, либо 1. Как для классических, так и для квантовых компьютеров были введены элементарные логические операции: дизъюнкция, конъюнкция и квантовое отрицание, при помощи которых будет организована вся логика квантового компьютера.
Как работает квантовый компьютер? Согласно законам квантовой механики, энергия электрона, связанного в атоме, не произвольна. Она может иметь лишь определенный прерывный (дискретный) ряд значений Е>0>, Е>1>,... Е>n> называемых уровнями энергии. Этот набор называют энергетическим спектром атома. Самый нижний уровень энергии Е0, при котором энергия атома наименьшая, называется основным. Остальные уровни (Е>1>, Е>2>,... Е>n>) соответствуют более высокой энергии атома и называются возбужденными. Излучение и поглощение атомом электромагнитной энергии происходит отдельными порциями - квантами, или фотонами. При поглощении фотона энергия увеличивается - он переходит "вверх" - с нижнего на верхний уровень, при излучении фотона атом совершает обратный переход вниз.
Если атом в данный момент времени находится в одном из возбужденных состояний Е>2>, то такое состояние атома неустойчиво, даже если на него не влияют другие частицы. Через очень короткое время атом перейдет в одно из состояний с меньшей энергией, например Е>1>. Такой самопроизвольный (спонтанный) переход с одного уровня на другой и сопровождающее его спонтанное излучение столь же случайны во времени, как радиоактивный распад ядра атома. Предсказать точно момент перехода принципиально невозможно - можно лишь говорить о вероятности того, что переход произойдет через такое-то время. Но атом может перейти с уровня Е>2> на Е>1> не спонтанно, а под действием электромагнитной волны, если только частота этой волны достаточно близка к частоте перехода атома. Такая резонансная волна как бы "расшатывает" электрон и ускоряет его "падение" на уровень с меньшей энергией. Переходы, происходящие под действием внешнего электромагнитного поля, называются вынужденными (или стимулированными). При создании квантового компьютера основное внимание уделяется вопросам управления кубитами при помощи вынужденного излучения и недопущении спонтанного излучения, которое нарушит работу всей квантовой системы. От рассказа о физике происходящих в квантовом компьютере процессов перейдем к тому, как эти свойства реализуются в экспериментальном образце квантового компьютера.
Для того чтобы практически реализовать квантовый компьютер, существуют несколько важных правил, которые в 1996 г. привел Дивиченцо (D.P. Divincenzo). Без их выполнения не может быть построена ни одна квантовая система.
Точно известное число частиц системы.
Возможность приведения системы в точно известное начальное состояние.
Высокая степень изоляции от внешней среды.
Умение менять состояние системы согласно заданной последовательности элементарных преобразований.
Выполнение этих требований вполне реально с помощью существующих квантовых технологий.
Зная все возможности квантовых компьютеров, можно предположить, что будущее вычислительных систем предрешено, однако, несмотря на все плюсы, которые нам дают квантовые компьютеры, - это не совсем так...
4. Нейрокомпьютер
Для решения некоторых задач требуется создание эффективной системы искусственного интеллекта, которая могла бы обрабатывать информацию, не затрачивая много вычислительных ресурсов. И разработчиков "осенило": мозг и нервная система живых организмов позволяют решать задачи управления и эффективно обрабатывать сенсорную информацию, а это огромный плюс для создаваемых вычислительных систем. Именно это послужило предпосылкой создания искусственных вычислительных систем на базе нейронных систем живого мира. Специалисты, добившись нужных результатов в этой области, создадут компьютер с большими возможностями.
Создание компьютера на основе нейронных систем живого мира базируется на теории перцептронов, разработчиком которой был Розенблатт. Он предложил понятие перцептрона - искусственной нейронной сети, которая может обучаться распознаванию образов. Предположим, что есть некоторая зенитно-ракетная установка, задача которой - распознать цель и определить наиболее опасную из них. Также есть два самолета вероятного противника: штурмовик и бомбардировщик. Зенитно-ракетная установка, используя оптические средства, фотографирует самолеты и отправляет полученные снимки на вход нейронной сети (при полностью сфотографированном самолете нейронная сеть быстро распознает его). Но если снимок получился плохо, то именно здесь используются основные свойства нейронной сети, одно из которых - возможность к самообучению. Например, на снимке отсутствует одно крыло и хвостовая часть самолета. Через некоторое (приемлемое) время нейронная сеть сама дорисовывает отсутствующие части и определяет тип этого самолета и дальнейшие действия по отношению к нему. Из распознанных штурмовика и бомбардировщика оператор данной зенитно-ракетной установки выберет для уничтожения более опасный самолет.
Перспективность создания компьютеров по теории Розенблатта состоит в том, что структуры, имеющие свойства мозга и нервной системы, имеют ряд особенностей, которые сильно помогают при решении сложных задач:
Параллельность обработки информации.
Способность к обучению.
Способность к автоматической классификации.
Высокая надежность.
Ассоциативность.
Нейрокомпьютеры - это совершенно новый тип вычислительной техники, иногда их называют биокомпьютерами. Нейрокомпьютеры можно строить на базе нейрочипов, которые функционально ориентированы на конкретный алгоритм, на решение конкретной задачи. Для решения задач разного типа требуется нейронная сеть разной топологии (топология - специальное расположение вершин, в данном случае нейрочипов, и пути их соединения). Возможна эмуляция нейрокомпьютеров (моделирование) - как программно на ПЭВМ и суперЭВМ, так и программно-аппаратно на цифровых супербольших интегральных схемах.
Искусственная нейронная сеть построена на нейроноподобных элементах - искусственных нейронах и нейроноподобных связях. Здесь важно заметить, что один искусственный нейрон может использоваться в работе нескольких (приблизительно похожих) алгоритмов обработки информации в сети, и каждый алгоритм осуществляется при помощи некоторого количества искусственных нейронов.
Заключение
Так на какой же основе будет построена вычислительная система будущего? Попробуем ответить на этот вопрос. В данной работе рассматривались три вида компьютеров: квантовые компьютеры, которые построены на основе явлений, возникающих в квантовой физике и дающих мощный вычислительный агрегат при решении задач сложных вычислений; нейрокомпьютеры и оптические компьютеры, которые построены на различной теоретической базе, но схожи в том, что и те и другие занимаются обработкой информации. С достоверностью известно, что уже сейчас существуют системы обработки информации, построенные на объединении оптических и нейронных компьютеров, - это так называемые нейроно-оптические компьютеры. Для того чтобы создать мощную систему обработки информации, пришлось разработать гибридную систему, т. е. имеющую свойства как оптических, так и нейронных компьютеров. Можно предположить, что объединение квантовых и нейроно-оптических компьютеров даст миру самую мощную гибридную вычислительную систему. Такую систему от обычной будут отличать огромная производительность (за счет параллелизма) и возможность эффективной обработки и управления сенсорной информацией. Но это лишь предположение, которое никакими фактическими доказательствами в настоящее время не подкреплено. Но технология создания вычислительных систем не стоит на месте, и в ближайшем будущем на рынке возможно появление новых вычислительных систем.
Список литературы
Глазер В. “Световодная техника” М. Энегроатомиздат 1995г.
Оокоси Е. Оптоэлектроника и оптическая связь. М.: Мир, 1998г.
Журнал PC Magazine ( Russian Edition ) N2 1991г.
М. ГУК “Аппаратные средства IBM PC” Питер Санкт-Петербург 1997г.