Реферат: Проблема языка в современных исследованиях по искусственному интеллекту - текст реферата. Скачать бесплатно.
Банк рефератов, курсовых и дипломных работ. Много и бесплатно. # | Правила оформления работ | Добавить в избранное
 
 
   
Меню Меню Меню Меню Меню
   
Napishem.com Napishem.com Napishem.com

Реферат

Проблема языка в современных исследованиях по искусственному интеллекту

Банк рефератов / Философия

Рубрики  Рубрики реферат банка

закрыть
Категория: Реферат
Язык реферата: Русский
Дата добавления:   
 
Скачать
Microsoft Word, 131 kb, скачать бесплатно
Заказать
Узнать стоимость написания уникального реферата

Узнайте стоимость написания уникальной работы

Проблема язык а в современных исследованиях по искусственному интеллекту Блинов А.К. 1. Источник компьютерных аналогий В основании компьютерных аналогий ментал ьного, широко используемых в когнитивистских моделях, лежит понятие маш ины Тьюринга. В работе 1950 года «Умеет ли машина мыслить?» Алан Матисон Тьюр инг поставил задачу формулировки условий, при которых машина может быть описана как мыслящая. А поскольку понятие «мышления» весьма темное, то о н полагает, что, прояснив, что значит мыслить для машины, мы сможем понять, что значит мыслить вообще. Тьюринг исходит из предпосылки, что если пове дение машины неотличимо от поведения человека, то это – достаточный кри терий считать такую машину мыслящей. Он предложил абстрактную модель ма шины, успешно имитирующей всю совокупность человеческого поведения, ко торая впоследствии получила название машины Тьюринга. В основе этой иде и лежат результаты, полученные в 30-х годах 20-го века и легшие в основу так на зываемой теории автоматов и обобщенные в теории алгоритмов. Тьюринг исх одит из представления о разумном поведении как деятельности, направлен ной на решение задач. Задача полагается решаемой, если может быть обнару жен алгоритм — набор специфицируемых вычислительных процедур — ее ре шения. Понятие алгоритма было интуитивно ясным, но не существовало общей формулы алгоритма вообще. Тьюринг сформулировал следующий тезис: для вс якого алгоритма можно смоделировать машину, отвечающую определенным х арактеристикам, которая будет реализацией этого алгоритма[20] . Тогда для в сякой задачи (в широком, а не в узком, математическом, смысле), решаемой люд ьми, может найтись такая вычислительная машина, которая будет решать эту задачу так же хорошо. Машина Тьюринга – абстрактная универсальная вычи слительная машина. Если такая машина может имитировать поведение любой другой машины, то она, в таком случае, сможет быть универсальным имитатор ом человеческого поведения. И, по мнению Тьюринга, нет никаких логически х препятствий к допущению такой модели. Машина Тьюринга отличается определенными свойствами. В основе ее лежит понятие автомата: самостоятельно действующего управляющего устройств а. Для их описания используются три алфавита: алфавит входа, алфавит выхо да и алфавит внутренних состояний автомата. Среди таких автоматов разли чают автоматы с конечной или бесконечной памятью, различаются они, разум еется, и количеством входов и выходов, а также могут быть вероятностными, если какая-нибудь из функций четко не задана, а предполагается случайно осуществляемой автоматом в каждый момент времени. Существенная характ еристика машины Тьюринга – дискретность: в каждый момент дискретного в ремени она находится в совершенно определенном (одном и только одном сос тоянии), так что можно точно указать, что у машины «на входе» (иначе говоря, что «воспринимается» машиной), что «на выходе» (машинное «действие») и в к аком состоянии она находится в данный момент времени. Таким образом, каж дое дискретное состояние можно полностью описать в терминах входа-выхо да и функции (иначе: алгоритма), которая(-ый) их связывает, т.е. используя тол ько буквы соответствующих трех алфавитов плюс специальные термины, под обные логическим константам. Возможны и существуют машины с не дискретн ыми состояниями: в этом случае никакому моменту дискретного времени нел ьзя сопоставить одно и только одно машинное состояние – данные продолж ают поступать на вход постоянно и постоянно же происходит изменение сос тояния. В какой-либо момент времени могут быть «считаны» результаты неки х измерений или действий, производимых с помощью такой машины, но внутри интервала между началом решения задачи этой машиной и получением резул ьтата различение дискретных состояний невозможно (или практически воз можно только в виде какой-либо аппроксимации). Результаты, получаемые с п омощью таких машин обладают большей погрешностью вследствие того, что с читывание результатов – тоже процесс, требующий времени, а за это время показания изменяются. Машинам с дискретными состояниями соответствуют среди реальных машин, например, цифровые компьютеры, с не дискретными со стояниями – аналоговые. В этом отношении на роль универсального «мысля щего» имитатора, построенного по модели Тьюринга, лучше подходят цифров ые вычислительные машины. Трудно сказать, насколько уместно проводить а налогию между человеческим организмом и машиной Тьюринга в структурно м отношении: для этого требуется доказать, что ментальные состояния подо бны внутренним состояниям таких машин, а именно – дискретны. Трудности в проведении такой аналогии, однако, с точки зрения Тьюринга – не помеха компьютерному моделированию сознания: ведь его критерий основан на пон ятии имитации – если машина Тьюринга (с дискретными состояниями) способ на имитировать поведение любой машины с не дискретными состояниями (а по Тьюрингу, это – так), т.е. решать всю совокупность задач, решаемых такими м ашинами, то нет разницы в том, насколько обоснованно полагать внутренние состояния человека дискретными. Вывод о способности машины Тьюринга мы слить как человек (т.е. решать весь комплекс релевантных задачи) не будет з ависеть от успехов или неудач такого обоснования. Тогда, независимо от т ого, как решается метафизический вопрос (что такое ментальное), мышление может описываться в терминах машинной модели Тьюринга. Не все, но многие версии машинного функционализма опираются на понятие м ашин Тьюринга, которые определяются по двум функциям: от входных данных и состояний к выходным данным и от входных данных и состояний к состояни ям. В этой модели любое устройство, соответствующее понятию машины Тьюри нга, можно описать с помощью так называемой машинной таблицы. Пример так ой таблицы для примитивного автомата – выключатель: Состояние S 1 Состояние S 2 Вход: нажатие Вкл. и переход в S 2 Выкл. и переход в S 1 Вход: нет нажатия Выкл. и остается в S 1 Вкл. и оста ется в S 2 Любая система, имеющая набор входов и выхо дов, а также состояний, соотносящихся согласно машинной таблице, описыва ется машинной таблицей и является реализацией абстрактного конечного автомата. Простая версия машинного функционализма настаивает на том, чт о каждая система, имеющая ментальные состояния, описывается, по крайней мере, одной машиной Тьюринга определенного вида; она также утверждает, ч то каждый тип ментальных состояний системы тождественен одному из табл ичных машинных состояний, определенных машинной таблицей. 2. Критика «машинного функционализма» Патнэм одно время разделял «машинную верс ию» функционализма; позднее, однако, он стал одним из энергичнейших крит иков этой идеи. Функционализм (по крайней мере, в этом варианте) предлагае т интерпретацию познавательного процесса как процесса обработки инфор мации — формальной манипуляции репрезентациями или символами согласн о некоторым правилам. Согласно этой теории, сознание аналогично вычисли тельной машине, и поэтому для изучения познания релевантны организация и структура, а не материальный субстрат сознания. Аргумент Патнэма здесь был основан на интуиции о том, что одно и то же ментальное состояние может быть реализовано на различных материальных носителях. Его позднейшие р евизии функционализма связаны с расширением требования о множественно сти реализаций ментального — в духе свойственного прагматистам плюра лизма. Это расширение основано на инверсии исходной интуиции: если разли чные состояния вычислительной машины или машины Тьюринга могут реализ овывать одно и то же ментальное состояние, то сознание не может быть иден тифицировано ни с какой конкретной вычислительной машиной. Поддержка П атнэмом сильной формы множественной реализуемости ментального привод ит его к пересмотру самого статуса психофизической проблемы как ключев ой для философии сознания. Главным образом критика компьютерных ана логий сосредоточилась на критике моделирования в терминах машин Тьюри нга. Основной аргумент в этом случае состоит в том, что психологические с остояния просто не тождественны машинным состояниям. Патнэм дает следу ющую этого экспозицию аргумента[21] . Состояние машины Тьюринга описывает ся таким образом, что эта машина может быть только в одном состоянии в оди н момент времени. Между тем, психологическое состояние человека допуска ет (и даже требует), чтобы субъект мог одновременно, например, испытывать б оль, произносить число три и слышать, как скулит собака. Здесь мы имеем три вида входных данных, три табличных состояния и три диспозиции. Идея псих ологического состояния как машинного состояния требует, между тем, чтоб ы все эти три диспозиции детерминировались одной машинной таблицей. Бол ее того, каждое теперешнее состояние субъекта должно быть таким, согласн о машинной теории, чтобы оно детерминировало его следующее состояние. Но даже относительно аналогии с вероятностным автоматом субъект имеет сл ишком широкую вариацию диспозиций, каждая из которых может быть реализо вана в следующем психологическом состоянии (исключая детерминацию со с тороны окружающей среды), чтобы можно было рассчитывать, что это следующ ее состояние полностью детерминировано предыдущим. Другие аргументы против машинной версии ф ункционализма таковы[22] . Машинная версия не позволяет пр овести различий между диспозиционными состояниями организма – полага ниями, желаниями, склонностями и тому подобными – и его событийными сос тояниями. Можно сформулировать обеспечивающие такое различие условия тождества для событийных и диспозиционных состояний: два организма нах одятся в тождественных психологических событийных состояниях, если и т олько если они находятся в одном и том же машинном табличном состоянии; и организм находится в определенном диспозиционном состоянии, если и тол ько если его машинная таблица содержит определенное машинное таблично е состояние (для каждой диспозиции свое). Но каждое машинное табличное со стояние организма таково, что организм может находится в нем в определен ное время. Следовательно, для организма находиться в некотором диспозиц ионном состоянии значит быть способным для этого организма находиться в некотором событийном состоянии, которое должно соответствовать данн ому диспозиционному состоянию. Но какое событийное состояние соответс твует диспозиции, например, «говорит по-французски»? А диспозиции «Говор ит по-французски в данный момент»? А какое событийное состояние соответс твует диспозиции «полагает, что р» или «думает сейчас, что р»? Эту проблем у можно представить в более общем виде: любой событийный предикат, даже т акой, как «думает сейчас…» или «испытывает (сейчас) боль», может быть инте рпретирован как диспозиционный, если он может быть проанализирован в те рминах других событий. Так, думать о летающих сосисках мы можем, не веря в их существование: в этом смысле затруднительно ставить в соответствие с обытийное состояние, выражаемое как «думаю (сейчас) о летающих сосисках» диспозиционному состоянию, выражаемому как «полагаю, что сосиски летаю т». Поведение может быть продуктом серии психологических состояний, котор ые сами по себе не имеют «выхода» в форме внешнего поведения и машинная в ерсия показывает, как это может быть. Но, с другой стороны, поведение может быть результатом взаимодействия одновременных психологических состо яний: оно может быть функцией от того, что индивид ощущает и что он думает в данный момент. Машинная версия не в состоянии показать, как это возможн о. Машинная версия предполагает слишком сильные условия тождества психол огических состояний. Так, если два человека различаются в отношении (фун кциональных характеристик) боли только тем, что наиболее вероятная реак ция одного на боль от того, что ему наступили на ногу – крикнуть «ой!», а др угого – «ай!», то из этого следует, что имеют место два различных типа бол и, что мало правдоподобно. Этот аргумент допускает итерацию следующего в ида: пусть имеет место такой автомат, что его машинные табличные состоян ия х и у различаются своими типами, если непосредственно следующие за ни ми табличные машинные состояния различаются своими типами. Но следующи е состояния будут различаться лишь в случае, если непосредственно следу ющие за ними состояния различаются по типам, и т.д. В таком случае, если доп ускается, что каждое состояние связано с каждым другим компьютационным образом, любые два автомата, имеющие менее, чем все их состояния в качеств е общих, не будут иметь ни одно из их состояний в качестве общего. Поэтому условия тождества для машинных табличных состояний не могут быть услов иями тождества для психологических состояний. Набор состояний, конституирующих машинную таблицу пробабилистского (к ак и детерминистского) автомата, представляет собой по определению спис ок, тогда как набор ментальных состояний, по крайней мере, некоторых орга низмов, согласно эмпирическим фактам, заранее не дан. Абстрагируясь от ф изических ограничений (таких как ограниченность памяти и смерть), можно утверждать, что существует бесконечно много различающихся своими типа ми номологически возможных психологических состояний любой данной лич ности. Даже если бы можно было достичь соответствия (типа один к одному) между ма шинными табличными состояниями и психологическими состояниями, эти со ответствия с необходимостью не репрезентировали бы существенные свойс тва психологических состояний. Кажется достаточно очевидным, что сущес твуют структурные сходства между, по крайней мере, некоторыми психологи ческими состояниями: например, между состоянием полагания, что р, и состо янием полагания, что р & q . Представление психологических состояний в виде списка просто не в состоянии репрезентировать такого рода структурные отношения. Блок и Фодор, правда, предлагают различать между машинными табличными и компьютационными состояниями автоматов. Первые – это состояния, опред еляемые колонками машинной таблицы; последние – любые состояния машин ы, характеризуемые в терминах ее входных, выходных данных и/или машинных табличных состояний: предикаты «осуществил вычисление, включающее три ста семьдесят два машинных табличных состояния» или «доказал последню ю теорему Ферма», или «напечатал энный символ своего словаря выходных да нных» – все обозначают возможные компьютационные состояния машин. Отн осительно такого различия очевидно, что даже если аргумент показывает, ч то психологические состояния организма не могут быть поставлены в соот ветствие машинным табличным состояниям автомата, он еще совершенно не о бязательно показывает, что они не могут быть поставлены в соответствие к омпьютационным состояниям автомата. Однако, условием возможности соот ветствий последнего рода является (по мнению Блока и Фодора) исчисляемос ть психологических состояний организма. 3. «Машинное» решение проблемы языка мысли Как возможен частный язык мысли? Если допу стить, что аргумент от бесконечного регресса, опирающийся на положение, что все языки, которыми мы владеем, приобретены нами путем изучения, устр аняется принятием языка мысли как врожденного, то возможно другое возра жение, снова апеллирующее к такому следствию, как бесконечный регресс. Е сли понимание предиката есть репрезентация его объема в некоем языке, ко торый индивид уже понимает, то не должно ли понимание предикатов этого я зыка подразумевать репрезентацию условий его истинности в некоем мета- метаязыке, предварительно понятом, и т.д. (до бесконечности)? Стандартный о твет состоит в признании того факта, что изучение значения предиката вкл ючает репрезентацию его объема, и отказе признавать, что этого же требуе т понимание предиката. Достаточным условием последнего может быть прос то то, что употребление этого предиката субъектом всегда в действительн ости соответствует правилу истинности для него. Не обязательно, с этой т очки зрения, чтобы субъект следования правилу был также и субъектом знан ия этого правила. В качестве иллюстрации этого ответа предлагается реал ьный компьютер: он использует, по меньшей мере, два языка – язык входных и выходных данных, посредством которого он осуществляет коммуникацию с в нешним миром, и машинный язык, на котором он осуществляет свои вычислите льные операции. Реальный компьютер нуждается в «компиляторах», которые определяли бы (истинностные) значения формул входа-выхода в терминах маш инного языка. Но такой компьютер, утверждают защитники этого взгляда, не нуждается в подобных компиляторах для машинного языка. «Тем фактом, что машина построена для использования машинного языка, избегается бескон ечный регресс для компьютеров»[23] . Формулы машинного языка в этом случае понимаются как непосредственно соответствующие компьютационно релев антным физическим состояниям и операциям машины: физика машины, таким об разом, гарантирует, что последовательности состояний и операций, которы е она проходит, выполняя свои вычисления, выполняют семантические услов ия для формул его внутреннего языка. Инженерные принципы занимают в тако й концепции место определений истинности для формул машинного языка и к ак такие они обеспечивают и соблюдение этих «определений». Считается, что Виттгенштейн доказал, что н е может быть такой вещи, как частный язык[24] . На это когнитивист может испол ьзовать аргумент, который воспроизводит Дж. Фодор, говоря, что «что бы ни д оказал Виттгенштейн, не может быть, чтобы было невозможно, чтобы язык был частным в том смысле, в каком частным является машинный язык компьютера, поскольку существуют такие вещи, как компьютеры, а то, что существует в де йствительности, возможно»[25] . Это, несомненно, верно постольку, поскольку вообще верна машинная аналогия. С другой стороны, неадекватность машинн ой аналогии сознания в целом может еще не предполагать, что столь же неад екватна и аналогия машинного языка. Виттгенштейн характеризует индиви дуальный язык двумя способами: или как язык, термины которого указывают на вещи, опыт которых может иметь только говорящий на этом языке, или как я зык, для применения терминов которого не существует никаких публичных к ритериев, правил или конвенций. Внутренняя репрезентативная система яв ляется частным языком, по меньшей мере, во втором смысле: употребление ег о терминов не регулируется никакими публичными конвенциями, хотя вовсе не обязательно, чтобы референтами этих терминов были исключительно при ватные события (ощущения). Ответ когнитивиста опять может состоять в отк азе считать аргумент от невозможности частного языка (по крайней мере, в том виде, который приписывается Витгенштейну) возражением против теори и, допускающей ментализ. Утверждается, что нет причин, почему защитник та кой теории обязан полагать, что ментальные операции демонстрируют эпис темическую приватность в каком-либо строгом смысле этого понятия. Напро тив, для него лучше не принимать этого, если он хочет, чтобы его психологич еские теории были совместимы с материалистической онтологией – ведь н ейрофизиологические события публичны. Далее, утверждается, что самое бо льшее, что этот аргумент показывает, это – что если нет публичных процед ур для сообщения о том, когерентно ли употреблен термин, то нет способа зн ать, когерентно ли он употреблен. Но из этого не следует, что в таком случа е в действительности не было бы различия между когерентным и произвольн ым применением термина; a fortiori из этого не следует, что нет никакого смысла у тверждать, что в этом случае есть различие между когерентным и произволь ным применением термина. Употребление языка для компьютерных операций не требует, чтобы употребляющий его был обязан иметь способность опреде лять, что термины этого языка применены совместимым образом. Наконец, ме нталисту требуется показать, в каком смысле термины во внутренней репре зентативной системе употребляются когерентно, и что они в этом смысле ра зумно аналогичны терминам публичного языка (насколько те могут когерен тно употребляться). Если мы не можем сделать первого, то, вероятно, само по нятие языка мысли не когерентно; если не можем сделать второго, то бессмы сленно называть язык мысли языком. В публичных языках когерентность упо треблений терминов контролируется конвенциями, которые ставят термины в соответствие определенным парадигмальным публичным ситуациям (напр имер, определенным перцептивным данным – таким, как появление коровы в поле зрения). Использовать термин когерентно в этом смысле значит примен ить его к ситуации, подпадающей под спецификацию парадигмальной, соглас но конвенции, для данного термина (или, иначе, относящейся к классу ситуац ий, относительно которых данный термин истинен). Но даже в случае публичн ых языков, — утверждает один из самых последовательных защитников маши нной аналогии языка мысли Дж. Фодор, — когерентность (употребления терм инов) не требует устойчивого отношения между способом употребления тер минов и тем, каков мир (выражаемого в понятии «конвенции»). Что действител ьно требуется, так это – устойчивое отношение между тем, как термины упо требляются и тем, каким мир полагается субъектом их употребления[26] . Как т акое отношение может быть обусловлено чем-то, кроме публичных конвенций ? Врожденная структура нервной системы выполняет, согласно этому подход у, данную функцию для внутреннего репрезентативного кода. Когда, говорит Фодор, мы размышляем об организме как о компьютере, мы пытаемся поставит ь в соответствие физическим состояниям организма (например, состояниям его нервной системы) формулы словаря психологической теории. В идеале та кое соотнесение должно выполняться так, чтобы, по крайней мере, некоторы е из последовательностей состояний, каузально имплицированных в произ водство поведения, могли интерпретироваться как компьютерные операции , имеющие соответствующие описания поведения в качестве своих «последн их строк» (в записи – описании последовательности). В случае организмов, так же, как и в случае реальных компьютеров, если у нас есть правильный спо соб устанавливать соответствия между формулами и состояниями, то мы смо жем интерпретировать последовательности событий, вызывающих поведени е на выходе, как компьютационную деривацию событий «на выходе». Все, что т ребуется для, того, чтобы внутренней репрезентативной системе можно был о приписывать пропозициональные установки, и, соответственно, чтобы отн осительно нее можно было утверждать, что она использует язык, – это чтоб ы было соответствие правильного вида между пропозициональными установ ками системы и ее отношениями к формулам данного языка[27] . Остается, конечно, открытым вопросом: дост аточно ли так истолкованная внутренняя репрезентация похожа на репрез ентацию в естественном языке, чтобы обе можно было называть репрезентац иями в одном и том же смысле? Но во всяком случае есть аналогия между двумя видами репрезентации. Поскольку публичные языки конвенциональны, а язы к мысли нет, трудно ожидать, чтобы между ними было что-то большее, чем анал огия. Фодор пишет в этой связи: «Если вы впечатлены этой аналогией, то вы з ахотите сказать, что внутренний код является языком. Если вы не впечатле ны аналогией, вы захотите сказать, что внутренний код является в некотор ом смысле репрезентативной системой, но не языком. Но ни один ответ не пов лияет на то, что я полагаю серьезным вопросом: являются ли когерентными м етодологические допущения компьютационной психологии? Ничто … не гово рит в пользу того, что они таковыми не являются»[28] . [20] А. Тьюринг, Может ли машина мысл ить, «Колледж», Саратов, 1999, 6 – 76. [21] H. Putnam, ‘ Philosophy and Our Mental Life’ , Mind, Language, and Reality: Philosophical Papers, vol. 2, London, Cambridge University Press, 1975, 291 – 303. [22] N. Block and J. Fodor, ‘ What Psychological States Are Not?’ , Philosophical Review 81, no. 2, 1972, 159 – 181. [23] Там же , 66. [24] См .: L. Wittgenstein, Philosophical Investigations, N. Y. Prentice-Hall Publishing Co., 1958, 258 и далее . [25] J. Fodor, The Language of Thought, N. Y. Crowell, 1975, 68. [26] Там же, 71. [27] Там же, 74 – 77. Аналогия между индивидуальной и публичной репрезентациям и, которую предлагает Фодор, такова: если ‘ a есть F ’ – формула в публично м языке, то ( S употребляет ‘ a есть F ’ для репрезентации обладания а свойс твом F ) только тогда, когда ( S полагает, что a есть F только тогда, когда S соглаш ается с ‘ a есть F ’ ). Так как обычно то, что ставит в соответствие полагани е S , что a есть F его согласию с ‘ a есть F ’ в случае публичных языков – подчи ненность S конвенциям такого языка, можно заместить сформулированное ус ловие таким условием: ( S употребляет ‘ a есть F ’ для репрезентации облада ния а свойством F ) только тогда, когда (( S полагает, что a есть F только тогда, ко гда S соглашается с ‘ a есть F ’ ) конвенционально). Если ‘ a есть F ’ – форму ла внутреннего кода, то «соглашается с» в последнем условии заменяется п оследовательностью, состоящей из одного и большего числа базисных отно шений, из которых сконструированы компьютационные отношения к формула м внутреннего кода, и «конвенционально» заменяется в нем на «номологиче ски необходимо». [28] Там же , 78 – 79.
1Архитектура и строительство
2Астрономия, авиация, космонавтика
 
3Безопасность жизнедеятельности
4Биология
 
5Военная кафедра, гражданская оборона
 
6География, экономическая география
7Геология и геодезия
8Государственное регулирование и налоги
 
9Естествознание
 
10Журналистика
 
11Законодательство и право
12Адвокатура
13Административное право
14Арбитражное процессуальное право
15Банковское право
16Государство и право
17Гражданское право и процесс
18Жилищное право
19Законодательство зарубежных стран
20Земельное право
21Конституционное право
22Конституционное право зарубежных стран
23Международное право
24Муниципальное право
25Налоговое право
26Римское право
27Семейное право
28Таможенное право
29Трудовое право
30Уголовное право и процесс
31Финансовое право
32Хозяйственное право
33Экологическое право
34Юриспруденция
 
35Иностранные языки
36Информатика, информационные технологии
37Базы данных
38Компьютерные сети
39Программирование
40Искусство и культура
41Краеведение
42Культурология
43Музыка
44История
45Биографии
46Историческая личность
47Литература
 
48Маркетинг и реклама
49Математика
50Медицина и здоровье
51Менеджмент
52Антикризисное управление
53Делопроизводство и документооборот
54Логистика
 
55Педагогика
56Политология
57Правоохранительные органы
58Криминалистика и криминология
59Прочее
60Психология
61Юридическая психология
 
62Радиоэлектроника
63Религия
 
64Сельское хозяйство и землепользование
65Социология
66Страхование
 
67Технологии
68Материаловедение
69Машиностроение
70Металлургия
71Транспорт
72Туризм
 
73Физика
74Физкультура и спорт
75Философия
 
76Химия
 
77Экология, охрана природы
78Экономика и финансы
79Анализ хозяйственной деятельности
80Банковское дело и кредитование
81Биржевое дело
82Бухгалтерский учет и аудит
83История экономических учений
84Международные отношения
85Предпринимательство, бизнес, микроэкономика
86Финансы
87Ценные бумаги и фондовый рынок
88Экономика предприятия
89Экономико-математическое моделирование
90Экономическая теория

 Анекдоты - это почти как рефераты, только короткие и смешные Следующий
- Интересно, зачем в унитаз кто-то бросил монетку?
- Наверное, чтобы вернуться.
Anekdot.ru

Узнайте стоимость курсовой, диплома, реферата на заказ.

Обратите внимание, реферат по философии "Проблема языка в современных исследованиях по искусственному интеллекту", также как и все другие рефераты, курсовые, дипломные и другие работы вы можете скачать бесплатно.

Смотрите также:


Банк рефератов - РефератБанк.ру
© РефератБанк, 2002 - 2016
Рейтинг@Mail.ru