Показати скорочену інформацію

dc.contributor.authorОсауленко, В. М.uk
dc.date.accessioned2019-05-16T07:40:08Z
dc.date.available2019-05-16T07:40:08Z
dc.date.issued2018
dc.identifier.citationОсауленко В. М. Комплекс математичних моделей процесу розробки програмного забезпечення [Текст] / В. М. Осауленко // Інформаційні технології та комп'ютерна інженерія. – 2018. – № 3. – С. 30-36.uk
dc.identifier.issn1999-9941
dc.identifier.issn2078-6387
dc.identifier.urihttp://ir.lib.vntu.edu.ua//handle/123456789/24810
dc.description.abstractСучасні обчислення здебільшого виконуються на послідовній архітектурі з розділеним процесором та пам’яттю. Живі організми використовують розподілене обчислення, і вважається, що це забезпечує їм здатність вирішувати такі складні задачі як розпізнавання образів та проявляти інтелектуальну поведінку вцілому. Існує потреба в більш біологічних підходах для обробки інформації. За мету роботи поставлено запропонувати новий спосіб виміру складності на прикладі одномірного бінарного вектору. Це допоможе краще формалізувати мету агента, та накласти обмеження зверху до його здатності розпізнавати та передбачати паттерни в середовищі. Як компроміс між ентропією та складністю Колмогорова пропонується використовувати сукупну ентропію n-грам, яка не містить недоліків першої та може бути порахована точно, на відмінно від другої. Показано, що варіюючи дану міру можна переходити від станів повністю випадкового світу до повністю організованого з поступовою зміною складності. Прийнявши за мету агента робити найкращі передбачення, проявляється сенс нової міри, що вказує на необхідні ресурси для досягнення мети для конкретного середовища. Також наводиться короткий огляд невирішених проблем моделювання інтелекту агента та можливих шляхів їх вирішення. Загалом, запропоновано нову міру складності, сукупну ентропію n-грам, яку можна порахувати точно для вхідних даних. Міра виведена для агента, що робить передбачення паттернів в даних, і може бути застосована для оцінки необхідної складності моделі агента. Недоліком нової міри є її висока обчислювальна складність для високо-розмірних даних. Необхідні нові дослідження для спрощення міри та її подальшого застосування.uk
dc.description.abstractСовременные вычисления в основном выполняются на последовательной архитектуре с разделенным процессором и памятью. Живые организмы используют распределенное вычисление, и считается, что это обеспечивает им способность решать такие сложные задачи как распознавание образов и проявлять интеллектуальное поведение в целом. Существует потребность в более биологических подходах для обработки информации. За цель исследования поставленно предложить новый способ измерения сложности на примере одномерного бинарного вектора. Это поможет лучше формализовать цель агента, и наложить ограничения сверху на его способности распознавать и предвидить паттерны в среде. Как компромисс между энтропией и сложностью Колмогорова предлагается использовать совокупную энтропию n-грамм, которая не содержит недостатков первой и может быть посчитана точно, в отличии от второй. Показано, что варьируя данную меру можно переходить от состояний полностью случайного мира к полностью организованного с постепенным изменением сложности. Принявшы целью агента делать лучшие предсказания, проявляется смысл новой степени, что указывает на необходимые ресурсы для достижения цели для конкретной среды. Также приводится краткий обзор нерешенных проблем моделирования интеллекта агента и возможных путей их решения. В целом, предложена новая степень сложности, совокупную энтропию n-грамм, которую можно посчитать точно для входных данных. Мера выведена для агента, который делает предсказания паттернов, и может быть применена для оценки необходимой сложности модели агента. Недостатком новой степени является ее высокая вычислительная сложность для высоко-размерных данных. Необходимы новые исследования для упрощения меры и ее дальнейшего применения.ru
dc.description.abstractModern computing is mostly performed on a sequential architecture with a separate processor and memory. Living organisms use parallel computing, and it is believed that it provides them with the ability to solve such complex tasks as pattern recognition and to demonstrate intellectual behavior in general. There is a need for more biologically based approaches to information processing. The aim of the study is to propose a new way of measuring complexity on an example of a one-dimensional binary vector. This will help to better formalize the agent's purpose, and impose upper bounds of it’s the ability to recognize and predict patterns in the environment. As a compromise between entropy and Kolmogorov's complexity, it is proposed to use joint entropy of n-grams, which has no deficiencies of the first one and can be computed exactly, in contrast to the second. It is shown that by varying this measure it is possible to move from the states of completely random world to fully organized with a gradual change in complexity. Taking the agent's goal to make the best predictions, the esense of a new measure manifests itself, indicating the resources needed to achieve the goal for a specific environment. Also, a brief overview of the unresolved problems of modeling the intelligence of the agent and possible ways to solve them is presented. Overall, a new degree of complexity is proposed, joint entropy of n-gram, which can be calculated precisely for input data. A measure is deduced for the agent, which predicts patterns in the data, and can be applied to assess the required complexity of the agent model. The disadvantage of the new measure is its high computational complexity for high-dimensional data. New research is needed for simplification and further application.en
dc.language.isouk_UAuk_UA
dc.publisherВНТУuk
dc.relation.ispartofІнформаційні технології та комп'ютерна інженерія. № 3 : 30-36.uk
dc.relation.urihttps://itce.vntu.edu.ua/index.php/itce/article/view/718
dc.subjectінтелектуальний агентuk
dc.subjectнейронні мережіuk
dc.subjectскладність Колмогороваuk
dc.subjectентропіяuk
dc.subjectинтеллектуальный агентru
dc.subjectнейронные сетиru
dc.subjectсложность Колмогороваru
dc.subjectэнтропияru
dc.subjectintelligent agenten
dc.subjectneural networksen
dc.subjectKolmogorov's complexityen
dc.subjectentropyen
dc.titleМодель інтелектуального агента в одномірному дискретному світіuk
dc.title.alternativeМодель интеллектуального агента в одномерном дискретном миреru
dc.title.alternativeModel of intelligent agent in the one dimensional discrete worden
dc.typeArticle
dc.identifier.udc004.942
dc.relation.referencesA. Turing, “On computable numbers,” Proc. London Math. Soc., vol. 42, pp. 230–265, 1936.en
dc.relation.referencesC. E. Shannon, “A mathematical theory of communication,” Bell Syst. Tech. J., vol. 27, no. July 1928, pp. 379–423, 1948.en
dc.relation.referencesJ. Schmidhuber, “Deep Learning in neural networks: An overview,” Neural Networks, vol. 61, pp. 85–117, 2015.en
dc.relation.referencesM. Hutter, Universal artificial intelligence. 2005.en
dc.relation.referencesA. Kolmogorov, “Three Approaches to the quantitive definition of Information,” Prob Info Trans, vol. 1, no. 1, pp. 3–11, 1965.en
dc.relation.referencesR. J. Solomonoff, “A Formal theory of Inductive Inference,” Info Cont, vol. 7, pp. 1-22-254, 1964.en
dc.relation.referencesF. Wörgötter and B. Porr, “Temporal sequence learning, prediction, and control: a review of different models and their relation to biological mechanisms,” Neural Comput., vol. 17, no. 2, pp. 245–319, 2005.en
dc.relation.referencesP. Kanerva, “Hyperdimensional computing: An introduction to computing in distributed representa-tion with high-dimensional random vectors,” Cognit. Comput., vol. 1, no. 2, pp. 139–159, 2009.en
dc.relation.referencesA. Luczak, B. L. McNaughton, and K. D. Harris, “Packet-based communication in the cortex.,” Nat. Rev. Neurosci., vol. 16, no. 12, pp. 745–755, 2015.en
dc.relation.referencesK. D. Harris and G. M. G. Shepherd, “The neocortical circuit: themes and variations,” Nat. Neurosci., vol. 18, no. 2, pp. 170–181, 2015.en
dc.relation.referencesG. Palm, “Neural associative memories and sparse coding,” Neural Networks, vol. 37, pp. 165–171, 2013.en
dc.relation.referencesH. Barlow, “Redundancy reduction revisited,” Netw. Comput. Neural Syst., vol. 12, no. 3, pp. 241–253, 2001.en
dc.relation.referencesK. Morita, J. Jitsev, and A. Morrison, “Corticostriatal circuit mechanisms of value-based action se-lection: Implementation of reinforcement learning algorithms and beyond,” Behav. Brain Res., vol. 311, pp. 110–121, 2016.en
dc.relation.referencesM. B. Mirza, R. A. Adams, C. D. Mathys, and K. J. Friston, “Scene Construction, Visual Foraging, and Active Inference,” Front. Comput. Neurosci., vol. 10, no. June, 2016.en
dc.relation.referencesD. C. Knill and A. Pouget, “The Bayesian brain: The role of uncertainty in neural coding and compu-tation,” Trends Neurosci., vol. 27, no. 12, pp. 712–719, 2004.en
dc.relation.referencesC. L. Baker, R. R. Saxe, and J. B. Tenenbaum, “Bayesian Theory of Mind: Modeling Joint Belief-Desire Attribution,” Proc. thirty-second Annu. Conf. Cogn. Sci. Soc., vol. 1, no. 2006, pp. 2469–2474, 2009.en
dc.relation.referencesJ. T. Abbott, J. B. Hamrick, and T. L. Griffiths, “Approximating Bayesian inference with a sparse dis-tributed memory system,” Proc. 35th Annu. Conf. Cogn. Sci. Soc., pp. 1686–1691, 2013.en
dc.relation.referencesN. Frémaux and W. Gerstner, “Neuromodulated Spike-Timing-Dependent Plasticity and Theory of Three-Factor Learning Rules,” Front. Neural Circuits, vol. 9, no. 85, p. 85, 2016.en


Файли в цьому документі

Thumbnail

Даний документ включений в наступну(і) колекцію(ї)

Показати скорочену інформацію