Эффективное программирование
личный блог velkin
Реальная причина деградации интернета
05.06.2025
|
velkin
|
Качество содержимого
Ранее я описал различие между источниками информации.
Отличия документации, книг, журналов и комментариев (15.01.2022)
Если кратко, то качество содержимого падает тем больше, чем ниже тип содержимого находится по списку.
Тип содержимого.
1. Документация.
2. Книги.
3. Журналы.
4. Комментарии.
И я всё ещё придерживаюсь этой теории, но это взгляд на проблему именно с точки зрения типа содержимого, а не с точки зрения типа авторства.
Рассмотрение проблемы качества содержимого с точки зрения.
1. Типа содержимого.
2. Типа авторства.
Тип авторства.
1. Автор (документации, книги, статьи в журнале).
2. Комментатор.
3. Переписчик (рерайтер)
4. Большая языковая модель.
Автор может писать документацию, а может и книгу, так в чём разница?
Дело в том, что обычно документация классифицирована лучше, чем книга. Или ещё можно сказать, что чем больше книга похожа на документацию, тем лучше она классифицирована. То есть в документации больше чётких структур, а не просто словесные потоки.Документа́ция — совокупность документов, посвященных какому-либо вопросу (задаче, проекту, изделию и др.). Документирование — процесс отбора, классификации, использования и распространения документов.
Словесный поток и чёткие структуры (19.09.2022)
1. Чёткие структуры это линейные и древовидные списки, таблицы, графы и другие структуры данных выраженные в графическом виде. В терминах html это теги ol-ul, table.
2. Словесные потоки это последовательный текст состоящий из слов и предложений делящийся на слова, предложения, абзацы, главы, тома. В терминах html это теги h1-h6, p.
Иными словами.
1. Автор документации скорее всего хорошо классифицировал и структурировал информацию.
2. Автор книги структурировал её с помощью оглавления, но баланс смещён в сторону словесных потоков, а не структур.
3. Авторов у журнала скорее всего много, а статьи в них на разные темы, из-за чего нет общей классификации.
4. Автор комментария вынужден отвечать на чужие мысли, то есть сообщество мешает ему раскрыть свой потенциал в классификации и структурировании информации.
5. Автор переписчик (рерайтер) часто плохо разбирается в теме и переписывает документацию или книгу своими словами.
6. Большая языковая модель генерирует что-то на основе чего-то, например, авторского содержимого. Фактически это машинный переписчик (рерайтер), но без понимания реального мира.
Веб 1.0 против Веб 2.0
Переход от Веб 1.0 к Веб 2.0 открыл возможность писать на чужих сайтах. Да, существует утверждение, что Веб 1.0 это только чтение, но это не так. На своём сайте владелец может написать всё, что угодно и даже гораздо больше, чем на чужом.
В Веб 1.0 для владельца нет искусственных ограничений на.
1. Разметку.
2. Навигацию.
3. Количеству правок.
Но казалось бы в Веб 2.0 владелец сайта тоже может писать всё, что угодно. Это так, да не совсем.
Дело в том, что
1. Сайты Веб 1.0 статические и используют файлы html.
2. Сайты Веб 2.0 динамические и используют базы данных и серверные скрипты.
Управлять сайтом Веб 2.0 сложнее, так как нужно знать больше всего. Если же таких знаний нет, то точно так же будет ограничена.
1. Разметка. Может быть ограничена фильтрами html, или ещё хуже будут урезанные разметки bbcode, markdown, вики-разметка, которые всё равно будут преобразованы в html с потерями.
2. Навигация. Навигационные цепочки вроде хлебных крошек и прочего не так просто настроить даже в CMS из коробки, а если нужного нет, то это огромная проблема.
3. Количество правок. Здесь дело даже не в количестве правок, а к примеру в истории правок засоряющих базу данных, что тоже требует настроек.
Подведя итоги Веб 2.0.
1. Сложнее, чем Веб 1.0 для владельца.
2. Ограничен, для стороннего пользователя.
Это не значит, что Веб 2.0 плох для владельца, но до него ещё нужно дорасти в техническом плане. Те же бесплатные CMS вполне себе хороши, но имеют крайне ограниченный функционал, а их доработка требует больших усилий. Особенно если речь пойдёт об изменении структуры данных.
Исходя из вышеперечисленного можно сделать вывод, что один и тот же человек создаёт качественно различающуюся информацию в разных средах. Но никакого волшебства не происходит. На создание качественной информации, то есть вдумчивой классификации и структуризации уйдёт времени на порядки больше. Когда говорю порядки, я имею в виду десятки или даже сотни раз дольше.
Деградация интернета
В числе факторов деградации интернета называют.
1. Ухудшение качества поиска.
1.а. В том числе намеренно, чтобы показывать то, за что платят поисковикам, то есть за рекламу.
1.б. Или то, что владельцы поисковиков посчитают нужными показывать или скрывать по политическим, религиозным, финансовым и любым другим причинам.
2. Ограничения в правилах чужих платформ Веб 2.0.
2.а. Нельзя менять оформление и прочие технические детали.
2.б. Нельзя писать всё, что хочется на чужом сайте, жёсткая модерация.
2.в. Угроза банов с полным удалением всего написанного.
2.г. Отсутствует владение над собственноручно написанным содержимым.
3. Ухудшение качества содержимого.
3.а. Вместо профессионально разбирающихся в теме авторов пишут человеческие (рерайтеры) или машинные (большие языковые модели) переписчики.
3.б. Пишут разбирающиеся в теме люди, но из-за особенностей платформы они выдают низкокачественное содержимое.
И всё в таком роде.
В общем основная мысль в том, что одни и те же люди.
1. На своих сайтах при условии, что они хорошо разбираются в их создании могли бы написать качественное, то есть хорошо классифицированное и структурированное содержимое, но потратив очень много времени.
2. А могли бы в тоже самое время написать вместо этого кучу дебильных комментариев на чужих сайтах, или в лучшем случае низкокачественных статей вроде потока сознания, вроде этой.
Потому интернет и деградирует, так как выдавать качество (классифицирование и структурирование).
1. Очень время затратно.
2. Но самое главное психологически требует смены среды обитания.
Решение проблемы
Нужен переход с чужих платформ.
1. На свой сайт Веб 1.0.
2. Или на свой сайт Веб 2.0, но при условии, что данный автор уже отлично разбирается как в Веб 1.0, так и в Веб 2.0.
Что произойдёт, если оставаться на чужих платформах Веб 2.0?
1. Качество содержимого будет соответствовать уровню вовлечённости в текущую платформу.
2. Психология банально не позволит тратить на чужой платформе на качество (классификацию и структуризацию) много времени как минимум потому, что созданное другими тоже не будет классифицировано, ловушка среды обитания.
3. Технически классификация и структуризация будут ограничены.
4. Модерация, угроза банов и отсутствие владения собственными данными тоже не способствуют успеху.
Ещё хотелось бы сказать про степень владения собственными данными.
1. В Веб 1.0 я использую для редактирования Notepad++ или Kate, а храню данные в монорепозитории Git.
2. В Веб 2.0 мне было удобнее заходить на статьи в базу данных с помощью DBeaver, редактировать же в обычных локальных редакторах.
Казалось бы, какой изврат залезать напрямую в базу данных чтобы отредактировать статью. Но веб-интерфейсы это не всегда хорошо, они и так медленные, а с замедлением интернета в России и переходом на Tor Browser стали ещё медленней.
К тому же стандартные CMS вроде Wordpress и прочих не заточены на массовую обработку данных, например, на массовые создания статей или на массовые замены текста. Даже с плагинами запросы ограничены по количеству записей иначе они просто не сработают до конца.
И хотя я всё это написал лучший критерий успеха это практика. Прочитав эту статью, но не выполнив рекомендации в ней понимания о чём она была написана не будет. А те кто выполнил всё это и без статьи поймут о чём речь, только им уже и так не надо.
Так что эта статья в первую очередь для меня. И во вторую возможно для тех, кто уже смутно догадывается обо всём этом следуя собственным потребностям, но ещё не поняли в чём заключается засада.
Впрочем учитывая, что статья публикуется в Веб 2.0 и создана для Веб 2.0, её качество, как и качество комментариев к ней, если они конечно будут, не будет особо высоким.
В конце концов есть разница между.
1. Содержимым созданным для донесения информации.
2. Содержимым созданным для общения.
Веб 2.0 как раз и создан для общения. Общение означает более низкое качество (классификации и структуризации) информации, зато на порядки более быстрое время написания сообщений и ответов на них.
05.06.2025 9 комментариев |
V>
Качество содержимого
V>Но казалось бы в Веб 2.0 владелец сайта тоже может писать всё, что угодно. Это так, да не совсем.
V>Дело в том, что
V>1. Сайты Веб 1.0 статические и используют файлы html.
В веб 1.0 были уже вполне интерактивные чаты на CGI (bash/perl/pyton) и даже SSI. dhtml тоже из той ещё эпохи. Не было красоты "принесенной" css.
V>2. Сайты Веб 2.0 динамические и используют базы данных и серверные скрипты.
необязательно.
V>Управлять сайтом Веб 2.0 сложнее, так как нужно знать больше всего.
Не обязательно: платформы *.wordpress *.blogspot *.tumbler *.gitpages не требуют специальных знаний, так что скорее всё наоборот.
V>
Деградация интернета
V>В числе факторов деградации интернета называют.
V>3. Ухудшение качества содержимого.
3.В — "безблагодатность". Публикуя что-то в интернете автор рассчитывает на реакцию. Интерактивный (это же интернет!) отзыв от читателей материала. Какое-то предметное обсуждение.
А если реакции нет совсем или реакция только от сетевых тролей, то какой смысл публиковать?
Где-то мне попадалась статья о химии твердотельных лазеров с коментом "мы с мужем попробовали и нам очень понравилось".
V>
Решение проблемы
V>Нужен переход с чужих платформ.
V>1. На свой сайт Веб 1.0.
V>2. Или на свой сайт Веб 2.0, но при условии, что данный автор уже отлично разбирается как в Веб 1.0, так и в Веб 2.0.
V>Ещё хотелось бы сказать про степень владения собственными данными.
V>1. В Веб 1.0 я использую для редактирования Notepad++ или Kate, а храню данные в монорепозитории Git.
V>2. В Веб 2.0 мне было удобнее заходить на статьи в базу данных с помощью DBeaver, редактировать же в обычных локальных редакторах.
Вот — ведешь локально базу знаний, статьи, заметки в https://webhamster.ru/site/page/index/articles/projectcode/105
делаешь копию базы знаний на публичный сервис, такой как GitHub.com, BitBucket.org, etc.
и оно становится общедоступным через https://webhamster.ru/site/page/index/articles/projectcode/267
при 0 затратах и
0минимальных знаниях Веб любой версии. Примеры там же на странице ниже.SK>В веб 1.0 были уже вполне интерактивные чаты на CGI (bash/perl/pyton) и даже SSI. dhtml тоже из той ещё эпохи. Не было красоты "принесенной" css.
Про CSS, кстати, да. Я поражаюсь насколько красивым можно сделать сайт средствами HTML+CSS.
1. Нужны кнопки для сайта? 50 примеров CSS3 кнопок с эффектами и анимацией
2. Кнопки | CSS
3. 60 классных кнопок на CSS с анимацией
Впрочем большинство сайтов по прежнему уродливы или имеют простейший плоский дизайн. Но если посмотреть на сайты тех же MMORPG и прочих, то иногда встречается неплохой дизайн. Хотя, конечно, всегда можно сделать ещё лучше.
[img=large]https://www.o-kvadrat.ru/uploads/sites/images_preview/22_razrabotka-site-aion-asmodeia_preview_img_1_e135dd.jpg[/img]
[img=large]https://www.o-kvadrat.ru/uploads/sites/images_preview/69_razrabotka-site-animefast_preview_img_1_737d5a.jpg[/img]
V>>Управлять сайтом Веб 2.0 сложнее, так как нужно знать больше всего.
SK>Не обязательно: платформы *.wordpress *.blogspot *.tumbler *.gitpages не требуют специальных знаний, так что скорее всё наоборот.
Статья как раз о том, что пока пользуешься чужим ничего хорошего не сделаешь как на техническом, так и на психологическом уровне. Просто будешь набирать какой-то код в базовом HTML и это в лучшем случае, а тем же CSS вообще не сможешь воспользоваться.
SK>3.В — "безблагодатность". Публикуя что-то в интернете автор рассчитывает на реакцию. Интерактивный (это же интернет!) отзыв от читателей материала. Какое-то предметное обсуждение.
SK>А если реакции нет совсем или реакция только от сетевых тролей, то какой смысл публиковать?
Как-то я писал статью.
Нужны ли комментарии и оценки на информационном сайте (28.12.2021)
Пока моё мнение не изменилось, то есть комментарии и оценки на информационном сайте не нужны. Для примера я обнаружил, что в моём случае работает не фактор чужих ответов, а фактор быстрой публикации. Сделал небольшое изменение сайта, сразу залил в проду. На своём личном сайте я могу себе такое позволить. Так вот когда я не заливаю все мелкие изменения, то мотивация у меня падает.
Похоже вот на это видео (16:50).
1. Начни делать задачу не более, чем на 2-е минуты.
2. Напиши и выполни пять микродействий.
3. Сделай задачу не более, чем на 10%.
Мотивация не в чужом поощрении, а в маленьких, но постоянных достижениях.
https://www.youtube.com/watch?v=fxBq5smjQVc
SK>Вот — ведешь локально базу знаний, статьи, заметки в https://webhamster.ru/site/page/index/articles/projectcode/105
SK>делаешь копию базы знаний на публичный сервис, такой как GitHub.com, BitBucket.org, etc.
SK>и оно становится общедоступным через https://webhamster.ru/site/page/index/articles/projectcode/267
SK>при 0 затратах и
0минимальных знаниях Веб любой версии. Примеры там же на странице ниже.У меня был уже цикл статей про базы знаний.
Новая эра личных баз знаний (14.01.2022)
И там по списку. MyTetra это только одна из, а ещё Zim, Obsidian и куча других. Впрочем я уже писал с тех пор, что проще завести обычный набранный вручную html или на худой конец поставить Wordpress. Сайты лучше из-за глючной индексации персональных менеджеров, не проходят они проверку, когда страниц становится много.
Индексация в личных базах знаний (20.03.2024)
В общем в этом плане нового мнения у меня не появилось.
1. Как статические или динамические сайты были лучше персональных менеджеров программ, так и осталось.
2. Как html5 вёрстка пока была лучшей вёрсткой для документирования, так и осталось.
Лично для меня уход от сайтов это огромный шаг назад, но есть интересное мнение.
Re: О новейших технологиях
А это на мой взгляд очень важно. Потому что даже если взять html и понаделать на нём страниц в виде словесных потоков, то это будут всего лишь словесные потоки. Они не превратятся в чёткие структуры. Я уж не говорю про создание специальных баз данных.
SK>>Вот — ведешь локально базу знаний, статьи, заметки в https://webhamster.ru/site/page/index/articles/projectcode/105
V>У меня был уже цикл статей про базы знаний.
V>И там по списку. MyTetra это только одна из,
Да, но там она рассматривалась только как персональный организатор заметок. А здесь — offline CMS. На мой взгляд, оптимально по функциям. Не хватает только экспорта статичных html на любой произвольный хостинг и css template для красоты.
Можно же вести две базы, одну лично-персональную, вторую публично-общедоступную.
V>>>Управлять сайтом Веб 2.0 сложнее, так как нужно знать больше всего.
SK>>Не обязательно: платформы *.wordpress *.blogspot *.tumbler *.gitpages не требуют специальных знаний, так что скорее всё наоборот.
V>Статья как раз о том, что пока пользуешься чужим ничего хорошего не сделаешь как на техническом, так и на психологическом уровне. Просто будешь набирать какой-то код в базовом HTML и это в лучшем случае, а тем же CSS вообще не сможешь воспользоваться.
Делать что-то хорошее на техническом уровне можно если у тебя (главная) цель продемонстрировать свой технический уровень.
Аналогично с психологическим.
по этому и плодятся Ужасные сайты — люди демонстрируют "смотри как я могу (какую-то фигню)". Но в отрыве от остальных аспектов даже высшее мастерство выглядит как ужас.
SK>>3.В — "безблагодатность". Публикуя что-то в интернете автор рассчитывает на реакцию. Интерактивный (это же интернет!) отзыв от читателей материала. Какое-то предметное обсуждение.
SK>>А если реакции нет совсем или реакция только от сетевых тролей, то какой смысл публиковать?
V>Как-то я писал статью.
V>Нужны ли комментарии и оценки на информационном сайте (28.12.2021)
V>Пока моё мнение не изменилось, то есть комментарии и оценки на информационном сайте не нужны. Для примера я обнаружил, что в моём случае работает не фактор чужих ответов, а фактор быстрой публикации. Сделал небольшое изменение сайта, сразу залил в проду. На своём личном сайте я могу себе такое позволить. Так вот когда я не заливаю все мелкие изменения, то мотивация у меня падает.
V>Мотивация не в чужом поощрении, а в маленьких, но постоянных достижениях.
Речь не о поощрении (деньгах/лайках) как таковом, а о востребованности. Что жизнь живешь не зря, что тебя заметили.
Иначе зачем вообще публиковать? Вот, лично ты зачем выкладываешь в интернет статьи? Пиши "в стол". Без комментариев Эффект будет абсолютно тот-же.
V>Лично для меня уход от сайтов это огромный шаг назад, но есть интересное мнение.
V>Re: О новейших технологиях
V> V>А это на мой взгляд очень важно. Потому что даже если взять html и понаделать на нём страниц в виде словесных потоков, то это будут всего лишь словесные потоки. Они не превратятся в чёткие структуры. Я уж не говорю про создание специальных баз данных.
Кстати о чётком ИИ. У Стругацких в одном эпизоде упоминается Великий КРИ
V>
Решение проблемы
Я не силён ни в каких веб, но сейчас все тренды говорят про Web3 и ИИ-агентов. Возможно, что они как раз и решат текущие проблемы, привнеся кучу новых, конечно же. Судя по тому, сколько в это вкладывается, мир всё таки изменится.
V>>
Решение проблемы
N>Я не силён ни в каких веб, но сейчас все тренды говорят про Web3 и ИИ-агентов. Возможно, что они как раз и решат текущие проблемы, привнеся кучу новых, конечно же. Судя по тому, сколько в это вкладывается, мир всё таки изменится.Веб 3.0 не сказать чтобы решает мои проблемы.
Веб 3.0 же за меня думать не будет. А свои данные я и у себя могу хранить.
Сегодня заинтересовался темой преобразования XML в HTML с помощью XSLT.
Transforming XML to HTML using XSLT
Древняя же технология, но возможно недооценённая. Тем более новые версии стандарта XSLT прокачали. Тем интереснее, что это ещё и хорошо работает. Проверил консольной утилитой Xalan C++, хотя ещё не разбирался до какого стандарта там идёт подержка XSLT. Хотя есть как минимум несколько процессоров.
И возникает вопрос, для чего люди создавали Jekyll и прочие генераторы сайтов. Если как пишут ради markdown или textile так это деградация на мой вгляд по сравнению с тем чтобы сразу использовать HTML5.
Ходил ещё по сайтам тех кто создаёт сайты.
https://unsimpleworld.com
Сделали те же сайты.
https://mmorpg.top
https://cs.money
И так далее.
Захожу я на тот же.
https://forum.mmorpg.top/index.php
А там никто ничего не писал. Задизайнили сайт и забили уже как 3 года.
А в чём собственно мораль? Ну так сайт без содержимого никому не нужен. Сайт с плохим содержимым, а это в том числе сайты использующие большие языковые модели тоже думаю не нужны.
Старому интернету Веб 2.0 похоже наступает конец.
Гугл всем свинью подложил? (icezone 05.06.25)
Я вот тоже сколько всего делал на сайтах, но теперь понимаю, что владею темой лишь крайне поверхностно. Особенно это касается создания топовых сайтов с крутым оформлением и полезным содержимым.
Подумал ещё, может действительно сгенерировать веб версию проверки карточек.
Почитал про JavaScript, довольно простая технология.
https://metanit.com/web/javascript/
С ним то точно всё заработает, вопрос только можно было бы без него или нет. И очевидно прокачивать CMS или делать свою с уникальной базой данных пока не вариант. Посмотрел схему базы данных Wordpress на предмет апгрейда, такое себе.
[img=small]https://codex.wordpress.org/images/2/25/WP4.4.2-ERD.png[/img]
Складывается ощущение, что умные люди ещё в 2000-ых могли всё по крутому делать, технологии уже существовали. Да и я помню как у меня на DVD включая двухсторонние были мощные сборники всяких документаций в том числе русские на том же HTML. Впрочем они и сейчас есть, можно сходить посмотреть, если за столько времени металлический слой дисков ещё не испортился.
Я к тому, что проблема похоже ещё и в самих людях. Променяли более совершенные технологии на менее совершенные. На диске хотя бы HTML сайты не исчезали как сейчас из поисковика. Да и писали их люди с опытом, а не как сейчас. Опять же до сих пор не решена проблема с авторским правом и распространением.
Кстати, я считаю большие языковые модели ловко так подошли к теме. В мире огромное количество книг, которые можно перевести в HTML, FB2 и так далее. Но есть большое но, это авторское право и право копирования для распространения. В результате лучшее содержимое не индексируется в поиске, а доступно в основном виде не лицензионных распознанных сканов.
Ладно хоть Ричард Столлман вовремя подъехал с его единомышленниками, иначе сейчас даже большие языковые модели бы соснули, потому что не было бы на чём учиться. Хотя, конечно, им никто не мешает использовать документы защищённые копирайтом. На выходе получится плагиат, но кто докажет, когда он склеен из огромного количества кусочков принадлежащих разным авторам.
Опять же есть жалобы на то, что интернет деграднул. Надо действительно сходить проверить, что там было на DVD дисках. А то старые игры в памяти тоже кажутся шедевром, но когда их открываешь там просто ужас.
Типа тех же Героев 3, которые выглядели в памяти вот так.
https://www.youtube.com/watch?v=7b5Munn4qqA
https://www.youtube.com/watch?v=38mQplS0PVA
V>Веб 3.0 же за меня думать не будет. А свои данные я и у себя могу хранить.
Или будет. Про свои данные — ну, с натяжкой. Раньше в теме компьютерного зрения периодически выходили хорошие статьи, которые все читали и ориентировались. Теперь поток статей — тысячи и десятки тысяч, нет времени просмотреть даже то, что выходит на крупных, мирового уровня конференциях. Всё, я уже не ориентируюсь в отрасли, забился в свой тесный уголок.
Раньше у меня было хранилище вручную протеганных и упорядоченных полезных статей. Всё, я больше не могу поддерживать его.
Много книг, которые за всю жизнь не прочитать и фильмов, которые не просмотреть.
Что я могу? Я могу зайти в условный ChatGPT/DeepSeek/Qwen/Perplexity, включить поиск и размышление, он мне выдаст что-то по теме, в чём я уже могу разбираться. Но не в тоннах сырого материала!
Что интересно, что я коммичу иногда что-то по мелочи на гитхаб и чатики мне же кидают на него ссылку. И на этот гитхаб иногда ссылаются другие статьи, приводят один из репозиториев чуть ли не в образец, как лидер направления. На гитхабе можно посмотреть, откуда заходили на него и да, в последний год стали активно ссылаться всякие ЧатикиГПТ. Смешно и грустно, по факту поделка на коленке.
V>Сегодня заинтересовался темой преобразования XML в HTML с помощью XSLT.
V>Transforming XML to HTML using XSLT
V>Древняя же технология, но возможно недооценённая. Тем более новые версии стандарта XSLT прокачали. Тем интереснее, что это ещё и хорошо работает. Проверил консольной утилитой Xalan C++, хотя ещё не разбирался до какого стандарта там идёт подержка XSLT. Хотя есть как минимум несколько процессоров.
Как по мне, форма вообще мало что значит, важно содержание. Попроси нейросеть с конвертировать, а потом за ней сделай как надо. Всё. Я уже какое-то время назад стал просить нейросеть написать мне код для того, чтобы что-то куда-то распарсить или сконвертировать, беру его, проверяю и использую.
V>Кстати, я считаю большие языковые модели ловко так подошли к теме. В мире огромное количество книг, которые можно перевести в HTML, FB2 и так далее. Но есть большое но, это авторское право и право копирования для распространения. В результате лучшее содержимое не индексируется в поиске, а доступно в основном виде не лицензионных распознанных сканов.
Книги доступны всем, кому надо. И Гугл, и Фейсбук нелегально использовали их для обучения своих нейросетей, для этого и нужны все бесплатные сервисы и социальные сети.
N>Много книг, которые за всю жизнь не прочитать и фильмов, которые не просмотреть.
N>Что я могу? Я могу зайти в условный ChatGPT/DeepSeek/Qwen/Perplexity, включить поиск и размышление, он мне выдаст что-то по теме, в чём я уже могу разбираться. Но не в тоннах сырого материала!
Книги как по мне хуже документации и нужны, если не хватает понимания из документации. Документация же содержит более концентрированную информацию. И в принципе я сейчас хочу попробовать научиться создавать материалы, которые люди могут запомнить так, чтобы документация была в голове.
Для этого я испытываю принцип семь плюс-минус два. Миллер из той самой Bell Labs в которой создали Си и C++ обнаружил закономерность.
Магическое число семь плюс-минус два.
Кратковременная память человека способна запоминать.
Кратковременная память.
Ещё интересные мысли есть у Стивена Крашена.
По собственному опыту я считаю, что ёмкость долговременной человеческой памяти огромна, но в кратковременную можно засунуть до 5 элементов, включительно или нет. А лучше до 3 включительно или нет. Потому для слов я бы закон назвал скорее 3 +- 2.
И вот здесь переходим на виды отношений между понятиями.
Совместимые:
1. Подчинение.
2. Равенство.
3. Пересечение.
Несовместимые.
1. Соподчинение.
2. Противоположность.
3. Отрицание.
Я предполагаю, что.
1. Нужно делить объём понятий не более чем на 5 элементов, меньше — лучше.
2. Каждое понятие должно быть не более, чем односложным словом.
3. При этом нужно выставлять каким образом понятия относятся друг к другу.
4. Для начала можно делить понятия только по признаку соподчинения.
А теперь внимание, важная мысль.
Я предполагаю, что мышлению мешает.
1. Отсутствие знаний в голове.
2. Эффективный механизм извлечения знаний из головы.
Кто-то скажет, что важно не знать, а знать где искать. И вот это как раз и мешает людям стать профессионалами. Важно не знать где искать, важно знать. И в ходе исследований я всё больше сопоставляю данные различных идеологов, у меня их там целый список, а так же их принципы.
Например, почему интернет деграднул?
1. Потому что знаний нет.
2. Потому что они есть, но размазаны по текстам.
3. Потому что отсутствует классификация знаний.
Графическое представление знаний тоже играет роль, а не только содержимое. Здесь я как раз и подхожу к принципу Model-View-Controller.
1. Содержимое. XML.
2. Преобразование. XSLT.
3. Оформление. HTML+CSS.
Хотя и в одностороннем порядке.
Что касается проблемы больших языковых моделей, то они не уменьшают, а увеличивают количество информации. Если бы они научились сжимать данные, выстраивать классификации, то тогда да, это было бы полезно.
Не зря же первыми деграднули поисковики решившие, что можно порождать огромное количество текстового мусора и это будет востребовано у людей. Есть ещё и проблема создания технологий. Если технологию никто не создал, то языковая модель ничего не сможет изобрести.
Я, кстати, не против всякой автоматики пока она решает существующие проблемы, а не порождает новые. Программистам ещё есть куда работать над алгоритмами и данными. При этом ещё как-то решить проблему неоднозначности решений. В идеале бы хотелось одно, но самое лучшее решение под каждую задачу, а что там в итоге получится непонятно.