شرط بندی فوتبال : Bitemporal History


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

When we think of how some property (e.g. your address or
salary) changes over time, we usually think of it as a linear sequence of
changes. But surprisingly often, it can get rather more tangled than that,
in a way that can often confuse computerized records.

I can illustrate all this with a simple example:

  • We are handling payroll for our company. We run the payroll for our
    company on February 25, and our employee Sally is paid according to her
    monthly salary of $6000.
  • On March 15 we get an apologetic letter from HR telling us that, on
    February 15th, Sally got a pay raise to $6500.

So what should we answer when we’re asked what Sally’s salary was on
February 25? In one sense we should answer $6500, since we know now that that
was the rate. But often we cannot ignore that on Feb 25 we thought the salary
was $6000, after all that’s when we ran payroll. We printed a check, sent it to
her, and she cashed it. These all occurred based on the amount that her salary
was. If the tax authorities asked us for her salary on Feb 25, this becomes
important.

The Two Dimensions

I find I can make sense of much of this tangle by thinking of time as
two dimensions – hence the term “bitemporal”. One dimension is the
actual history of Sally’s salary, which I’ll illustrate by sampling on the
25th of each month, since that’s when payroll runs.

date salary
Jan 25 6000
Feb 25 6500
Mar 25 6500

The second dimension comes in as we ask what did we think Sally’s salary
history was on February 25? On February 25th we hadn’t got the letter from
HR, so we thought her salary was always $6000. There is a difference between
the actual history, and our record of the history. We can show this by
adding new dates to our table

record date actual date salary
Jan 25 Jan 25 6000
Feb 25 Jan 25 6000
Mar 25 Jan 25 6000
Feb 25 Feb 25 6000
Mar 25 Feb 25 6500
Mar 25 Mar 25 6500

I’m using the terms actual and record history for the
two dimensions. You may also hear people using the terms valid, or
effective (for actual) and transaction (for record).

I read the rows of this table by saying something like “on Mar 25th, we
thought Sally’s salary on Feb 25th was $6500”.
Using this way of thinking, I can look at the earlier table of Sally’s actual history,
and say that more precisely it’s Sally’s actual history as known (recorded)
on March 25.

In programming terms, If I want to know Sally’s
salary, and I have no history, then I can get it with something like
sally.salary. To add support for (actual) history I need to use
sally.salaryAt('2021-02-25'). In a bitemporal world I need
another parameter sally.salaryAt('2021-02-25', '2021-03-25')

Another way to visualize this is to make a plot where the x axis is
actual time and the y axis is record time. I shade the region according to the
salary level. (The shape of the plot is triangular since there’s we’re not
trying to record future values.)

With this plot, I can make a table for how actual history changes with
each run of payroll on the 25th. We see that the Feb 25 payroll ran at a
time when Sally had no raise, but when the Mar 25 payroll ran, the raise was
known.

Changing the Retroactive Change

Now consider another communication from HR

  • April 5: Sorry there was an typo in our previous email. Sally’s raise
    on Feb 15 was to $6400. Sorry for the inconvenience.

This is the kind of change that makes angels weep. But when we think of
it terms of bitemporal history, it’s not that difficult to understand.
Here’s the plot with this new bit of information.

The horizontal lines, used for the payrols, represent the actual history
at a certain point in record time. On April 25 we know Sally’s salary
increased from $6000 to $6400 on February 15. In that perspective, we never
see Sally’s $6500 salary because it was never true.

Looking at the diagram, what does a vertical line mean?

This represents our knowledge of the value at a certain date. The table
indicates the recorded salary for February 25th, as our knowledge
changed over time.

Using Bitemporality

Bitemporal history is a useful way of framing history when we have to deal with
retroactive changes. However we don’t see it used that often, partly
because many people don’t know about the technique, but also because we
can often get away without it.

One way to avoid it is to not support retroactive changes. If your
insurance company says any changes become in force when they receive your
letter – then that’s a way of forcing actual time to match record
time.

Retroactive changes are a problem when actions are based on a
past state that’s retroactively changed, such as a salary check being sent
out based on a now-updated salary level. If we are merely recording a
history, then we don’t have to worry about it changing retroactively – we
essentially ignore record history and only record actual history. We may
do that even when we do have invariant action if the action is recorded in
such a way that it records any necessary input data. So the payroll for
Sally could record her salary at the time it issues the check, and that’s
enough for audit purposes. In that situation we can get away with only the
actual history of her salary. The record history is then buried inside her
payroll statements.

We may also get away with only actual history if any retroactive
changes are made before an action occurs. If we had learned of Sally’s
salary change on February 24th, we could adjust her record without running
into before the payroll action relied on the incorrect figure.

If we can avoid using bitemporal history, then that’s usually
preferable as it does complicate a system quite significantly. However
when have to deal with discrepancies between actual and record history,
usually due to retroactive updates, then we need to bite the bullet. One
of the hardest parts of this is educating users on how bitemporal history
works. Most people don’t think of a historical record as something that
changes, let alone of the two dimensions of record and actual history.

Append-only History

In a simple world a history is append-only. If communication is perfect
and instantaneous than all new information is learned immediately by every
interested actor. We can then just treat history as something we add to as
new events occur in the world.

Bitemporal history is a way of coming to terms that communication is
neither perfect nor instantaneous. Actual history is no longer
append-only, we go back and make retroactive changes. However record
history itself is append only. We don’t change what we thought we
knew about Sally’s salary on Feb 25. We just append the later knowledge we
gained. By layering an append-only record history over the actual history, we
allow the actual history to be modified while creating a reliable history
of its modifications.

Consequences of Retroactive Changes

Bitemporal history is a mechanism that allows us to track how a value
changes, and it can be extremely helpful to be able ask
sally.salaryAt(actualDate, recordDate). But retroactive
changes do more than just adjust the historical record. As the expert
says: “People assume that time is a strict progression of cause to effect,
but actually from a non-linear, non-subjective viewpoint – it’s
more like a big ball of wibbly wobbly timey wimey stuff.” If we’ve paid Sally $6000 when we should have paid her
$6400, then we need to make it right. At the very least that means getting
more in a later paycheck, but it may also lead to other consequences.
Maybe the higher payment means she should have crossed some important
threshold a month earlier, maybe there are tax implications.

Bitemporal history alone isn’t enough to figure out these dependent
effects are, that demands a set of additional mechanisms, which are beyond
the scope of this pattern. One measure is to create a parallel model,
which captures the state of the world as it should have been with the
correct salary, and use this to figure out the compensating changes.
Bitemporal history can be useful element
for these kinds of measures, but only unravels part of that big ball.

Perspectives for Record Time

My example above for record time uses dates to capture our changing
understanding of actual history. But the way we capture record history can
be more involved than that.

To make everything easier to follow above, I sampled the history on the
payroll dates. But a better representation of a history is to use date
ranges, Here’s a table to cover 2021

record dates actual dates salary
Jan 1 – Feb 14 Jan 1 – Dec 31 6000
Mar 15 – Apr 4 Jan 1 – Feb 14 6000
Mar 15 – Apr 4 Feb 15 – Dec 31 6500
Apr 5 – Dec 31 Jan 1 – Feb 14 6000
Apr 5 – Dec 31 Feb 15 – Dec 31 6400

We can think of Sally’s salary being recorded with a combination of two
keys, the actual key (a date range) and the record key (also a date
range). But our notion of record key can be more complicated than that.

One obvious case is that different agents can have different record
histories. This is clearly the case for Sally, it took time to get
messages from the HR department to the Payroll department, so the record
times for those modifications to actual history will differ between the
two.

department record dates actual dates salary
HR Jan 1 – Feb 14 Jan 1 – Dec 31 6000
HR Feb 15 – Dec 31 Jan 1 – Feb 14 6000
HR Feb 15 – Dec 31 Feb 15 – Dec 31 6400
Payroll Jan 1 – Mar 14 Jan 1 – Dec 31 6000
Payroll Mar 15 – Apr 4 Jan 1 – Feb 14 6000
Payroll Mar 15 – Apr 4 Feb 15 – Dec 31 6500
Payroll Apr 5 – Dec 31 Jan 1 – Feb 14 6000
Payroll Apr 5 – Dec 31 Feb 15 – Dec 31 6400

Anything that can record a history will have its own record
timestamps for when it learns information. Depending on that data we may
say that an enterprise will choose a certain agent to be the defining
agent for recording certain kinds of data. But agents will cross lines of
authority – however big the company, it won’t change the recording dates of
the tax authorities it deals with. A lot of effort goes into sorting out
problems caused by different agents learning the same facts at different
times.

We can generalize what’s happening here by combining the notion of the
department and record date range into a single concept of a perspective.
Thus we’d say something like “according to HR’s perspective on Feb 25,
Sally’s salary was $6400”. In a table form, we might visualize it like
this.

perspective actual dates salary
HR, Jan 1 – Feb 14 Jan 1 – Dec 31 6000
HR, Jan 15 – Dec 31 Jan 1 – Feb 14 6000
HR, Feb 15 – Dec 31 Feb 15 – Dec 31 6400
Payroll, Jan 1 – Mar 14 Jan 1 – Dec 31 6000
Payroll, Mar 15 – Apr 4 Jan 1 – Feb 14 6000
Payroll, Mar 15 – Apr 4 Feb 15 – Dec 31 6500
Payroll, Apr 5 – Dec 31 Jan 1 – Feb 14 6000
Payroll, Apr 5 – Dec 31 Feb 15 – Dec 31 6400

What does this collapse into a single perspective concept give us? It
allows us to think about what other perspectives might be. One example is
to consider alternative perspectives. We could create a perspective where
we remove individual raises (such as Sally’s on Feb 15) and give
every employee a salary raise of 10% on March 1st. That would lead to a new
record-time dimension for Sally’s salary.

perspective actual dates salary
real world Jan 1 – Feb 14 6000
real world Feb 15 – Dec 31 6400
with global raise Jan 1 – Feb 28 6000
with global-raise Mar 1 – Dec 31 6600

This generalization of the notion of record time says that we can layer
multiple perspectives over an actual history, using essentially the same
mechanism to reason about retroactive changes and alternative histories.

Putting many perspective dimensions over a history isn’t something
that’s widely useful, even compared to bitemporal history. But I find it a
helpful way to think about these kinds of situations: reasoning about
alternative scenarios, either historically, or in the future.

Storing and Processing Bitemporal Histories

Adding history to data increases complexity. In a bitemporal world I
need two date parameters to access Sally’s salary –
sally.salaryAt('2021-02-25', '2021-03-25'). We can simplify
access by defaults, if we treat the default for record time as today, then
processing that only needs current record time can ignore the bitemporal
complications.

Simplifying access, however, doesn’t necessarily simplify storage. If
any client needs bitemporal data, we have to store it somehow. While there
are some databases that have built-in support for for some level of
temporality, they are relatively niche. And wisely, folks tend to be
extra-wary of niche technologies when it comes to long lived data.

Given that, often the best way is to come up with our own scheme. There
are two broad approaches.

The first is to use a bitemporal data structure: encoding the necessary date
information into the data structure used to store the data. This could
work by using nested date range objects, or a pair of start/end dates in a
relational table.

record start record end actual start actual end salary
Jan 1 Dec 31 Jan 1 Feb 14 6000
Jan 1 Feb 14 Feb 15 Dec 31 6000
Feb 15 Dec 31 Feb 15 Dec 31 6400
Jan 1 Dec 31 Jan 1 Mar 14 6000
Jan 1 Feb 14 Mar 15 Apr 4 6000
Feb 15 Dec 31 Mar 15 Apr 4 6500
Jan 1 Feb 14 Apr 5 Dec 31 6000
Feb 15 Dec 31 Apr 5 Dec 31 6400

This allows access to all the bitemporal history, but is awkward to
update and query – although that can be made easier by making a library
handle access to bitemporal information.

The alternative is to use event
sourcing
. Here we don’t store the state of Sally’s salary as our
primary store, instead we store all the changes as events. Such events
might look like this

record date actual date action value
Jan 1 Jan 1 sally.salary 6000
Mar 15 Feb 15 sally.salary 6500
Apr 5 Feb 15 sally.salary 6400

Pay attention to the fact that for if events need to support bitemporal
history, they need to be bitemporal themselves. This means each event
needs an actual date (or time) for when the event occurred in the world,
and a record date (or time) for when we learned about it.

Storing the events is conceptually more straightforward, but requires
more processing to answer a query. However much that processing can cached
by building a snapshot of the application’s state. So if most users of
this data only required current actual history, then we could build a data
structure that only supports actual history, populate it from
the events, and keep it up to date as new events trickle in. Those users
who wanted bitemporal data could create a more complex structure and
populate it from the same events, but their complexity wouldn’t make
things harder for those who wanted the simpler model. (And if some people
wanted to look at actual history on a different record date, they could
use almost all the same code for working with current actual history.)



سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : Bliki: RefinementCodeReview


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

وقتی افراد به مرور کد فکر می کنند ، معمولاً به یک گام صریح در روند کار تیم توسعه فکر می کنند. این روزها بررسی قبل از ادغام، انجام شده در a درخواست را بکشید رایج ترین مکانیسم برای بازبینی کد است ، تا جایی که بسیاری از افراد بدون احساس فکر می کنند که استفاده نکردن از درخواست های pull ، همه فرصت ها را برای انجام بررسی کد از بین می برد. چنین دید محدودی در مورد بازبینی کد ، نه تنها مجموعه ای از سازوکارهای صحیح را برای بررسی نادیده می گیرد ، بلکه مهمتر از همه احتمالاً قدرتمندترین تکنیک بررسی کد – یعنی اصلاح پایدار توسط کل تیم – را نادیده می گیرد.

یکی از چشم اندازهای فراگیر در نرم افزار این تصور است که چیزی است که ما آن را می سازیم و کامل می کنیم – از این رو استعاره بی پایان ساخت و معماری ساختمان است. با این حال ویژگی اصلی نرم افزار این است که این نرم افزار است
نرم، و می تواند پس از انتشار به راحتی اصلاح شود همانطور که در ابتدا در ویرایشگر برنامه نویس ساخته شد. به همین دلیل اریک دورنبورگ عاقلانه استدلال می کند که معماری استعاره ضعیفی است و بهتر خواهد بود
با برنامه ریزی شهری جایگزین شد. نرم افزارهای ارزشمند معمولاً در یک تغییر دائمی تغییر می کنند ، زیرا ما از درک بهتری از ارزشی که می تواند داشته باشد ، ویژگی هایی را به آن اضافه می کنیم. اما این فرصت فقط افزودن ویژگی های جدید نیست ، بلکه اصلاح این نرم افزار است – با دروس تیمی که بطور پیوسته در مورد چگونگی بهترین نرم افزار برای ایجاد این تغییرات می آموزد.

با داشتن یک محیط مناسب ، می توانم کمی کدها را که شش ماه پیش نوشته شده جستجو کنم ، برخی از مشکلات مربوط به نحوه نوشتن را ببینم و سریع آنها را برطرف کنم. این ممکن است به این دلیل باشد که این کد هنگام نوشتن دارای نقص بوده است یا از آنجا که تغییراتی در کد کد ایجاد شده است ، منجر به عدم صحیح کد دیگر شده است. علت آن که باشد ، مهم این است که مشکلات را به محض اینکه مانع ما شوند ، برطرف کنیم. به محض اینکه من درکی از کدی داشته باشم که بلافاصله از خواندن آن مشخص نشده است ، من مسئولیت دارم (همانطور که Ward Cunningham با کمال تعجب گفت) این درک را از ذهنم بیرون بریزم و آن را در کد بگذارم. به این ترتیب خواننده بعدی مجبور نیست خیلی سخت کار کند.

این فرآیند تصفیه دقیقاً همان چیزی است که در بازبینی کد اتفاق می افتد ، اما هر بار که کد به آن نگاه می شود بیشتر از زمانی که کد به پایگاه کد اضافه می شود ، شروع می شود. این برای من یک بینش اساسی بود. به هر حال ، بسیاری از مشکلاتی که بررسی کد به دنبال رفع آن است ، مشکلاتی است که فقط با خواندن کد در آینده به مشکل تبدیل می شود. بحث نگران کننده ای در مورد آنها وجود دارد تا آن زمان. از این گذشته ، درست مانند افزودن مجموعه آپارتمان های بزرگ ، الگوی ترافیک را تغییر می دهد ، ممکن است شش ماه بعد متن کد را تغییر داده باشیم ، نوع اصلاح کد مورد نیاز را تغییر دهیم. این همچنین افراد بیشتری را درگیر می کند ، در این طرح هر سازنده ای که کد را می خواند یک بازبینی کننده است و یکی از آنها که می تواند بر اساس استفاده واقعی آنها از کد بررسی شود تا برخی از دستورالعمل های کلی ، اما اغلب با توجیه خطرناک.

یک روش برای فکر کردن در مورد اعتبار یک عمل این است که فکر کنید چه اتفاقی می افتد اگر انحصار باشد. اگر تنها مکانیزم بررسی کد ما تکرار برنامه نویسان بعدی باشد ، چه می شود؟ یک نتیجه این است که توجه مرور بر روی مناطقی از کد که بیشتر خوانده می شوند متمرکز می شود – که بیشتر مناطقی است که باید مورد توجه قرار گیرد. یک نگرانی این است که کدی که هرگز خوانده نمی شود هرگز بررسی نمی شود – اما بیشتر اوقات خوب است. یک تیم با روش های تست خوب می تواند از کارکرد کد اطمینان داشته باشد ، تست های عملکرد می توانند مسائل مربوط به عملکرد را شناسایی کنند. با توجه به اینکه ، اگر کد هرگز نیازی به بررسی مجدد کد ندارد ، نیازی به صرف تلاش برای فهم آن نداریم. من انتظار دارم که چنین مواردی به ندرت نادر باشند ، اما این یک آزمایش فکری آموزنده است.

اما بیشتر … همه. یک استثنا obvious آشکار در اینجا مسائل امنیتی است. کد می تواند برای سالها خوب کار کند تا زمانی که یک مهاجم سو finds استفاده را پیدا کند ، در آن زمان ما از عدم بررسی آن ابراز تاسف می کنیم. این نمونه ای از نگرانی های ایمنی با تأثیر بالا اما نادر است که شایسته بررسی دقیق است. اما این بدان معنا نیست که ما نباید از پالایش به عنوان مکانیزم بررسی کد استفاده آگاهانه کنیم. در عوض ، این بدان معناست که ما باید از نگرانی های نادر با تأثیر زیاد آگاه باشیم و جریان کار خود را تنظیم کنیم تا به دنبال آن نوع مشکل خاص باشیم ، به میزان مورد نیاز در شرایط خود ، تنظیم کنیم. تجزیه و تحلیل تهدید باید ماژول هایی را که نیاز به توجه بیشتر دارند و انواع خطرات آنها را تهدید می کند. بررسی کد هدفمند ممکن است برای نگرانی های امنیتی برنامه ریزی شود ، این موارد می توانند به طور م moreثرتری اجرا شوند زیرا روی نوع خاصی از مشکلات متمرکز هستند.

برای انجام این اصلاح کد همیشگی ، ما به روش های دیگری نیاز داریم. اگر می خواهم کد را تغییر دهم ، باید اطمینان داشته باشم که عملکرد موجود را شکسته نخواهد کرد ، بنابراین من به چیزی شبیه به این نیاز دارم کد خودآزمایی. من باید بدانم که این امر باعث درگیری بزرگ ادغام برای دیگران نخواهد شد ، بنابراین من نیاز دارم ادغام مداوم. همه ما باید مهارت داشته باشیم بازسازی بنابراین می توانیم کد را به طور موثر تغییر دهیم. از آنجا که این امر متکی به بسیاری از توسعه دهندگان است که انتظار می رود هر بخشی از پایگاه کد را اصلاح کنند ، بهترین کار ما این است مالکیت کد جمعی (یا حداقل ضعیف). اما با توجه به تیمی که این مهارت ها را دارد ، آنها می توانند به استفاده از اصلاح منظم خود به عنوان بخشی اساسی از استراتژی بازبینی كد خود اعتماد كنند.

اگر هیچ چیز دیگری نیست ، من فکر می کنم مهم است که ما بیشتر به عنوان بازبینی کد ، در نقش اصلاح کار کنیم. یکی از خطرات تمرکز فقط بر بررسیهای قبل از یکپارچه سازی این است که می تواند تیمها را به غفلت از نحوه کار تغییر در پایگاه کد سوق دهد. اگر من یک خط اصلی بکر داشته باشم ، و اطمینان حاصل کنم که هر تعهدی در آن خط اصلی بکر است – آیا می توانم مطمئن باشم که کد کد پس از شش ماه همچنان بکر است؟ من استدلال می کنم که نمی توانم ، زیرا این تغییرات به این معنی است که تصمیم خوب درباره برخی از کدها شش ماه پیش اکنون تصمیم خوبی نیست. تصفیه کد به ما امکان می دهد کد قدیمی را در برابر این تغییر کاربرد ارزیابی کنیم و به ما امکان می دهیم سلامت آن را حفظ کنیم.

سپاسگزاریها

بن نوبل ، کریس فورد ، ایوان بوتچر ، ایان کارترایت ، جرمی هویسکامپ ، کن موگراژ ، ماریو جیامپیتری ، مارتا روته ، عمر بشیر ، پیتر گیلارد-ماس و سیمون برونینگ در مورد پیش نویس های این پست در لیست پستی داخلی ما اظهار نظر کردند.


سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : 5 روش برای اینکه کتاب خود را از راحتی کاناپه پرفروش کنید


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

11 فوریه 2021

5 دقیقه خواندن

نظرات بیان شده توسط کارآفرین همکاران خودشان هستند.


هیچ رازی نیست که بحران جهانی بهداشت به شدت تحت تأثیر قرار گرفته است نشر صنعت. با لغو رویدادهای حضوری و تلاش برای ایجاد کتابفروشی ها ، بسیاری از نویسندگان در تلاشند تا راه های جدیدی برای تبلیغ خود پیدا کنند برخط.

از نظر تاریخی ، فروش کتاب با وجود رکود اقتصادی افزایش یافته است. بیش از هر زمان دیگری ، افراد به دنبال اطلاعات ، سرگرمی و انحراف مقرون به صرفه در داخل خانه هستند.

در حالی که درآمد کاغذ شومیز رو به کاهش است ، فروش کتاب الکترونیکی در حال افزایش است. هنوز فرصتی برای سودآوری وجود دارد و حتی وقتی مخاطب خود را به تبلیغات دیجیتال معطوف می کنید مخاطبان حتی بیشتر در انتظار آن هستند.

برای ایجاد سر و صدا برای عناوین خود نیازی به یک مهمانی انتشار زنده یا امضای کتاب ندارید. شما فقط نیاز به سازگاری دارید بازار یابی و کمی ذکاوت.

مربوط: برای عشق به کتاب: نگاهی به تجارت نشر

در اینجا پنج راهی وجود دارد که می توانید در بحران جهانی کتاب را به صورت آنلاین تبلیغ کنید.

1. به تور پادکست بروید

آیا می خواهید بدون هیچ هزینه و ماندگاری در مقابل خوانندگان جدید قرار بگیرید؟ سازماندهی تور پادکست را در نظر بگیرید.

پادکست ها یک کانال تبلیغاتی همیشه سبز با قابلیت تولید سرنخ مدتها پس از پخش قسمت شما هستند. بسیاری از پادکست ها از وفادارانی برخوردار هستند ، بنابراین تأیید میزبان تا رسیدن به اعتبار بسیار کمک خواهد کرد. نیازی به گفتن نیست ، حضور در نمایش ها باعث گسترش شبکه حرفه ای شما می شود.

برنامه ها و جدول زمانی انتشار متفاوت است ، بنابراین در بیشتر قسمت های پخش شده در تاریخ انتشار یا نزدیک به آن ، هدف شما شروع به انجام مصاحبه ها از سه تا شش ماه قبل است. می توانید از طریق وب سایت های نمایشی به طور معمول در پادکست ها ظاهر شوید و برای سایت های دایرکتوری مانند ثبت نام کنید PodcastsGuests.com تا اطمینان حاصل کنید که وقتی کسی به دنبال یک مهمان متخصص است ، از ذهن شما بالا می رود.

2. پیام های صوتی را برای بازرسان ارسال کنید

بررسی و اثبات اجتماعی برای اطمینان از فروش مداوم کتاب شما بسیار مهم است. بسیاری از نویسندگان بخش قابل توجهی از بودجه خود را صرف هدایا مانند کارت های هدیه و نسخه های جلد سخت می کنند.

در واقع ، آنچه خوانندگان هوس می کنند ، یک ارتباط است. اگر خواستار تعامل بیشتری هستید ، در نظر داشته باشید که پیروان خود از طریق پیام مستقیم یا ایمیل ، پیام صوتی شخصی خود را ارائه دهند ، زیرا آنها از مطالعه کتاب خود خارج می شوند و عکس صفحه را به عنوان تأیید ارسال می کنند. ممکن است مجبور باشید با ارز زمان معامله کنید ، اما یک پیام سفارشی و اطلاع رسانی واقعی بیش از 30 ثانیه طول نمی کشد و می تواند باعث مادام العمر بودن فن شود.

3. در کنفرانس های مجازی شرکت کرده و میزبان آنها باشید

با دیجیتالی شدن بسیاری از رویدادها ، نویسندگان اکنون می توانند بدون نیاز به بودجه برای هزینه های سفر یا زمان ، بیشتر در برابر جمعیت زیادی قرار بگیرند. پیام خود را از راحتی اتاق نشیمن خود به خوانندگان جدید برسانید ، در مورد یک موضوع مرتبط صحبت کنید و در پایان کتاب خود را به حاضران در کنفرانس متصل کنید.

در نظر داشته باشید که پس از ارائه ، یک فصل رایگان از کتاب خود را به هرکسی که در لیست ایمیل شما ثبت نام می کند ، اختصاص دهید. همچنین می توانید 15 دقیقه ممیزی یا مشاوره رایگان به شرکت کنندگانی که کتاب شما را پس از کنفرانس خریداری می کنند و رسید ارسال می کنند ، ارائه دهید.

گزینه دیگر میزبانی برنامه خودتان است کنفرانس مجازی بر اساس موضوع کتاب شما اگر در فضای داستان نویسی هستید ، این یک انتقال طبیعی است. به عنوان مثال اگر کتابی در زمینه نکات سلامتی دارید ، می توانید یک رویداد سلامتی مجازی را با سخنرانان مهمان در زیرمجموعه های مختلف برگزار کنید و به هرکسی که کتاب شما را خریداری می کند ، تخفیف بلیط ارائه دهید.

مربوط: چرا وبینارها ، که اکنون 25 سال از عمرش می گذرد ، برای فروش بیشتر از همیشه موثر هستند

4. یک باشگاه کتاب آنلاین راه اندازی کنید

یک کلوپ کتاب مجازی راهی عالی برای درگیر کردن جامعه پیروان اصلی شما است. شما می توانید یک نسخه دیجیتالی رایگان از کتاب خود را به هرکسی که در یک مهلت ثبت نام کرده و جلسات پرسش و پاسخ زنده را هر هفته برگزار کنید ، ارائه دهید.

این گزینه در صورت داشتن لیست پشتیبان ، بهترین نتیجه را خواهد داشت ، بنابراین افرادی که در باشگاه کتاب شرکت می کنند ، تمایل به مشاهده و خرید کارهای بیشتری دارند. همچنین می توانید این کار را با همکاری نویسندگان دیگر انجام دهید ، هر ماه یک کتاب متفاوت ارائه دهید و لیست ها و منابع ایمیل خود را جمع کنید.

5. اجتماعی شوید

موج جدید شبکه های اجتماعی گرایش ها به طور فزاینده ای نسبت به نویسندگان دوستانه است. به جای تصاویر کاملاً منظمی که به طور سنتی توسط الگوریتم ، سیستم عامل مانند و کلاب هاوس مواد را بیش از درخشش تبلیغ می کنند. اگر کتاب شما آموزنده است ، به راحتی می توانید با به اشتراک گذاشتن خبرها و گزیده هایی در پست های اجتماعی ، افراد زیر را جذب کنید تا پیروان خود را برای یادگیری بیشتر فریب دهید.

مربوط: 7 روش کسب درآمد از حساب TikTok

در صورت امکان از گزینه “link in bio” برای هدایت مرورگرهای پروفایل به کتابهای خود استفاده کنید. اطمینان حاصل کنید که فقط محتوای مربوط به ژانر خود را به اشتراک می گذارید و برای تشویق به افزایش میزان کلیک ، یک اقدام واضح اضافه کنید.

می توانید به صورت زنده بروید و از قسمت های کتاب خود قرائت مجازی انجام دهید. محتوای این سیستم عامل های جدید به طور معمول ضبط نمی شود ، بنابراین احساس تعجب برای پیروان وجود دارد. هر جلسه زنده را با یادداشتی سریع درباره اینکه بینندگان می توانند کتاب های شما را در صورت یافتن اطلاعات بیشتر بدانند ، پایان دهید.

با توجه به اینکه مردم بیشتر از هر زمان دیگری با لپ تاپ های خود کار می کنند ، مخاطبان آنلاین کتاب های شما و رویدادهای مرتبط با آن وجود دارند. نویسندگان و کارآفرینانی که اولویت بندی می کنند روش ها و استفاده از سیستم عامل های جدید این پتانسیل را دارند که این سال بالاترین درآمد سال را داشته باشد.

بارگذاری…


سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : 3 روش AI اکنون می تواند تجارت شما را متحول کند


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

اکثر شرکت ها در مراحل اولیه تعیین بهترین روش برای استفاده از هوش مصنوعی برای آنها هستند.

31 دسامبر 2020

3 دقیقه خواندن

نظرات بیان شده توسط کارآفرین همکاران خودشان هستند.


وعده آینده اتومبیل های خودران و داروی دقیق را برای لحظه ای کنار بگذاریم ، بیایید بررسی کنیم که چگونه هوش مصنوعی می تواند از تعداد قابل توجهی پشتیبانی کند نیاز دارد.

این پیاده سازی ها در مقیاس کوچکتر قطعاً همان چیزی نیستند که شما آن را پرزرق و برق می نامید ، اما این قدرت را دارند که از راه های معنی دار بر روی خط اصلی شما تأثیر بگذارند. از همه بهتر ، هر یک از ایده های ارائه شده در اینجا بر اساس موجود است فن آوری که می تواند در یک بازه زمانی معقول و با هزینه مناسب اجرا شود.

مربوط: 3 راهی که مشاغل کوچک می توانند به سرعت AI را بدون داده های بزرگ یا برنامه نویسان در آغوش بگیرند

1. اتوماسیون فرایندهای تجاری

تقریباً در هر زمینه شغلی ، مقدار زیادی از وقت کارمندان به اجرای وظایف تکراری و تکراری اختصاص یافته است. وظایفی مانند ورود و انتقال داده برای راه اندازی مشاغل ضروری است ، اما همچنین زمان بر بوده و منابع زیادی را از بین می برد.

اینجاست که (ՀՀԿ) وارد می شود. ՀՀԿ نوعی فناوری اتوماسیون فرآیند تجارت است که در آن نرم افزار (“ربات” در اتوماسیون فرآیند رباتیک) برای انجام کارهای مبتنی بر منطق مستقر می شود. اگر قانونی برای چگونگی انجام یک کار وجود داشته باشد ، به احتمال زیاد می تواند با جمهوری اسلامی به نتیجه برسد. اداره پشت دفتر ، و حتی منابع انسانی همگی مناطقی هستند که جمهوری اسلامی می تواند به کاهش بار وظایف یکنواخت کارمندان کمک کند.

ՀՀԿ می تواند در کل سازمان مستقر شود ، و کارآیی بیشتری را تقریباً برای هر بخش ایجاد می کند. از همه بهتر ، اجرای آن آسان و ارزان است و برای راه اندازی آن نیازی به فرآیند پردازنده سنگین نیست.

2. استخراج بینش عملی

یکی از امیدوار کننده ترین پیاده سازی هوش مصنوعی برای مارک ها و بازاریاب ها توانایی استخراج داده ها برای بینش عملی است. ما در جهانی زندگی می کنیم که پر از داده های موجود در مورد مصرف کنندگان و رفتارهای آنها است. مقدار زیاد داده ها مشکل خاص خود را نشان می دهد – چگونه می توان همه چیز را درک کرد.

در اینجا دوباره ، هوش مصنوعی کاملاً در موقعیت ارائه یک راه حل قرار دارد. الگوریتم ها در تشخیص الگوهای موجود در انبوه داده ها سریعتر و به مراتب بهتر از انسان هستند. به جای اتلاف وقت کارمند با ارزش ، الک کردن داده ها به امید یافتن سوزن ضرب المثل در انبار کاه ، برنامه ها می توانند بسیاری از اقدامات اساسی را برای استخراج معنی دارترین بینش انجام دهند.

الگوریتم های یادگیری ماشینی همچنین می توانند داده های گذشته را برای پیش بینی نتایج و رفتارهای آینده تجزیه و تحلیل کنند ، که این فرم AI را برای بازاریابان ضروری می کند. “یادگیری” در یادگیری ماشین به این معنی است که الگوریتم ها با گذشت زمان هوشمندتر می شوند. هرچه بیشتر آموزش ببینند دقیق تر می شوند.

مربوط: 3 مورد از بهترین موارد استفاده برای هوش مصنوعی در نرمال جدید ما

3. تعامل با مشتریان و کارمندان

جذب مشتری و کارمند داخلی روش دیگری است که مشاغل می توانند هوش مصنوعی را در آینده نزدیک به کار گیرند.

فن آوری های تعامل شناختی مانند چت بات ها ، موتورهای توصیه و عوامل هوشمند می توانند به جبران خلا خدمات مشتری کمک کنند. این فناوری ها با مدیریت طیف وسیعی از درخواست ها و مشکلات سطح پایین مشتری ، کارمندان خدمات مشتری را کاهش می دهد و وقت آنها را برای انجام کارهای پیچیده تر آزاد می کند.

ایجاد تجارب شخصی و شخصی بیشتر برای کاربران یک هدف اصلی برای بازاریابان است. موتورهای پیشنهادی با استفاده از یادگیری ماشین و به گسترش فرصتها برای ابتکارات شخصی سازی که محرک مشارکت مصرف کننده هستند کمک می کند .

در حال حاضر باید مشخص شود که برای بهره مندی از آن نیازی به تعمیر اساسی از بالا به پایین نیست . با شروع اتوماسیون فرآیند کسب و کار ، استخراج داده ها برای تولید بینش و پیش بینی های غنی ، و تمرکز بر روی تعامل شناختی ، مارک ها می توانند بلافاصله پیشرفت های معنادار سازمانی را با هوش مصنوعی آغاز کنند.

بارگذاری…


سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : 10،800 سال پیش ، انسانهای اولیه جزایر جنگلی را در چمنزارهای آمازونیا کاشتند


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

این مقاله در کشف کنید مسئله علمی سالانه “جزایر جنگلی در میان دریای چمنزار”. با تبدیل شدن به یک روزنامه نگاری علمی ما را پشتیبانی کنید مشترک.


هر بهار ، باران ها و ذوب برف ها علفزارهای وسیعی را که بین کوه های آند و جنگل های آمازون در شمال بولیوی امتداد دارند ، باتلاق می کنند. اما هزاران تپه پوشیده از درخت ، محکم ایستاده اند و چند فوت بالاتر از علف های سیل زده قرار دارند.

امبرتو لمباردو از دانشگاه برن ، سوئیس می گوید: “آنها مانند جزایری در دریای ساوانا هستند.” در سال 2006 ، لومباردو برای اولین بار پا به یک جزیره جنگلی در این منطقه Llanos de Moxos گذاشت ، و درمورد چگونگی شکل گیری طبیعی چنین ویژگی هایی متحیر است. وی به یاد می آورد: “من به عنوان یک جغرافی دان ، هیچ توضیحی برای آنها نداشتم.”

یک نظریه حاکی از آن بود که طی چند قرن گذشته ، دامداران جنگل های انبوه را برای ایجاد مراتع تراشیده اند ، اما نخلستان های پراکنده ای با هر درخت حدود 300 درخت را ترک کرده اند. اما این توضیح نمی دهد که چرا درختان در زمین های بالاتر رشد می کنند.

معلوم می شود جزایر جنگلی توسط مردم ساخته شده اند و بسیار قدیمی تر از آن هستند که حدس می زنند. لومباردو و همکارانش تاریخچه منتشر شده در ماه مه در نیچر را تجزیه و تحلیل کردند: تقریباً 10،800 سال پیش ، انسانها محصولات کشاورزی را در Llanos de Moxos کشت می کردند – که این باعث می شود که آنها قدیمی تر از گیاهان اهلی شناخته شده باشند که در خاور میانه حدود 12000 سال پیش کشت شده . این امر آمازونیا را به عنوان یکی از اولین مکانهای روی زمین تأیید می کند که در آن مردم گونه های وحشی را اهلی می کنند.

باغ های آنها کمپوست حاصلخیزی را انباشته کرده اند ، که به درختان اجازه می دهد از بالای سیلاب فصلی ریشه بزنند. به جای خراب کردن محیط زیست ، جزایر مصنوعی جنگل تنوع زیستی را افزایش داده و زیستگاه گونه های نادر را تا به امروز فراهم کرده اند. خوزه ام. کاپریلس ، یکی از نویسندگان و باستان شناسان تحقیق در ایالت پن ، می گوید: “لومباردو” یک قهرمان واقعی در این تحقیقات است.

در سال 2012 ، او و لومباردو حفاری هایی را آغاز کردند ، که تأیید کرد سه تپه توسط افراد باستان ساخته شده است ، بر اساس خاک رس سوخته ، ضایعات مواد غذایی و دفن انسان در این سایت ها. برای مطالعه جدید ، لومباردو از Google Earth برای ترسیم 6،643 جزیره جنگلی در منطقه ای به اندازه ایلینوی استفاده کرد. او می گوید: “این کار مانند فعالیت ذن بود که فقط مشغول گشت و گذار و کلیک بر روی همه این نقاط بود.”

محققان برخی را کاوش کردند و بقایای باستان شناسی مشابه مکان های کاملاً کاوش شده را در 64 مورد از 82 تپه آزمایش شده بین 2300 تا 10،850 سال کشف کردند. از این نسبت ، آنها تخمین زدند که انسان حداقل 4،700 را از 6،643 جزیره جنگلی قابل مشاهده در Google Earth برپا داشته است.

در کاوشگرها ، تیم همچنین بقایای گیاهان میکروسکوپی از قدیمی ترین کدوی شناخته شده در آمازونیا و قدیمی ترین محصولات شناخته شده گیاه کاساوا غده ای (همچنین به عنوان مانیوک یا یوکا) در جهان و همچنین تقریبا 7000 ساله را شناسایی کرد. ذرت – گیاهی که حدود 2000 سال قبل در مکزیک اهلی شد. به نظر می رسد مردم بذرهای خود را از یک جامعه به جامعه دیگر منتقل می کردند و بیش از 2000 مایل از آمریکای جنوبی به آمریکای جنوبی داشتند.

داده های جدید همچنین حاکی از وجود فاصله 8000 ساله بین شروع کشت در مقیاس باغ و کشاورزی تمام عیار با کانال ، مزارع و وابستگی به گونه های اهلی است. در سایر نقاط جهان ، این تغییر تقریباً طی 1000 سال اتفاق افتاده است. بعدی در دستور کار تحقیقاتی لومباردو: درک اینکه چرا در آمازونیا خیلی طولانی شد.


سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : Data Mesh Principles and Logical Architecture


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

The original writeup, How to Move
Beyond a Monolithic Data Lake to a Distributed Data Mesh

which I encourage you to read before
joining me back here – empathized with today’s pain points of architectural
and organizational challenges in order to become data-driven, use data to
compete, or use data at scale to drive value. It offered an alternative
perspective which since has captured many organizations’ attention, and
given hope for a different future. While the original writeup describes the
approach, it leaves many details of the design and implementation to one’s
imagination. I have no intention of being too prescriptive in this article,
and kill the imagination and creativity around data mesh implementation.
However I think it’s only responsible to clarify the architectural aspects
of data mesh as a stepping stone to move the paradigm forward.

This article is written with the intention of a follow up. It summarizes
the data mesh approach by enumerating
its underpinning principles, and the high level logical architecture
that the principles drive. Establishing the high level logical model
is a necessary foundation before I dive into detailed architecture of
data mesh core components in future articles.
Hence, if you are in search of a prescription around exact tools and recipes
for data mesh, this article may disappoint you. If you are seeking a simple
and technology-agnostic model that establishes a common language, come along.

The great divide of data

What do we really mean by data? The answer depends on whom you ask.
Today’s landscape is divided into operational data and
analytical data. Operational data sits in databases behind business
capabilities served with microservices, has a transactional nature,
keeps the current state and serves the needs of the applications running
the business. Analytical data is a temporal and aggregated view of the
facts of the business
over time, often modeled to provide retrospective or future-perspective
insights; it trains the ML models or feeds the analytical reports.

The current state of technology, architecture
and organization design is reflective of the divergence of these two data
planes – two levels of existence, integrated yet separate.
This divergence has led to a fragile architecture.
Continuously failing ETL (Extract, Transform, Load) jobs and ever growing
complexity of labyrinth of data pipelines, is a familiar sight to many who
attempt to connect these two planes, flowing data from operational data plane
to the analytical plane, and back to the operational plane.

Figure 1: The great divide of data

Analytical data plane itself has diverged into two main architectures
and technology stacks: data lake
and data warehouse
;
with data lake supporting data science access patterns, and data warehouse
supporting analytical and business intelligence reporting access patterns.
For this conversation, I put aside the dance between the two technology stacks:
data warehouse attempting to onboard data science
workflows
and data lake
attempting to serve data analysts and
business intelligence.
The original writeup on data mesh explores the
challenges of the existing
analytical data plane architecture.

Figure 2: Further divide of analytical data – warehouse

Figure 3: Further divide of analytical data – lake

Data mesh recognizes and respects the differences between these two planes:
the nature and topology of the data, the differing use cases, individual personas
of data consumers, and ultimately their diverse access patterns. However it
attempts to connect these two planes under a different structure – an inverted
model and topology based on domains and not technology stack
– with
a focus on the analytical data plane. Differences in today’s available technology
to manage the two archetypes of data, should not lead to separation of organization,
teams and people work on them.
In my opinion, the operational and transactional data technology and topology is
relatively mature, and driven largely by the microservices architecture; data is
hidden on the inside of each microservice, controlled and accessed through the
microserivce’s APIs. Yes there is room for innovation to truly achieve
multi-cloud-native operational database solutions, but from the architectural
perspective it meets the needs of the business. However it’s the management and
access to the analytical data that remains a point of friction at scale. This is
where data mesh focuses.

I do believe that at some point in future our technologies will evolve to
bring these two planes even closer together, but for now, I suggest we keep their
concerns separate.

Core principles and logical architecture of data mesh

Data mesh objective is to create a foundation for getting
value from analytical data and historical facts at scale – scale being
applied to constant change of data landscape, proliferation of both
sources of data and consumers
, diversity of transformation and
processing that use cases require
, speed of response to change.
To achieve this objective, I suggest that there are four
underpinning principles
that any data mesh
implementation embodies to achieve the promise of scale, while delivering
quality and integrity guarantees needed to make data usable : 1) domain-oriented
decentralized data ownership and architecture, 2) data as a product,
3) self-serve data infrastructure as a platform, and 4) federated computational governance.

While I expect the practices, technologies and implementations of these
principles vary and mature over time, these principles remain unchanged.

I have intended for the four principles to be collectively necessary
and sufficient
; to enable scale with resiliency while addressing concerns
around siloeing of incompatible data or increased cost of operation.
Let’s dive into each principle and then design the conceptual architecture
that supports it.

Domain Ownership

Data mesh, at core, is founded in decentralization
and distribution of responsibility to people who are
closest to the data in order to support continuous change and scalability.
The question is, how do we decompose and decentralize the components of the
data ecosystem and their ownership.
The components here are made of analytical data,
its metadata, and the computation necessary to serve it.

Data mesh follows the seams of organizational units as the axis of
decomposition. Our organizations today are decomposed based on their
business domains. Such decomposition localizes the impact of continuous
change and evolution – for the most part – to the domain’s
bounded context.
Hence, making the business domain’s bounded context a good candidate for
distribution of data ownership.

In this article, I will continue to use the same use case as the
original writeup, ‘a digital media company’. One can imagine that the
media company divides its operation, hence the systems and teams that
support the operation, based on domains such as ‘podcasts’, teams and
systems that manage podcast publication and their hosts; ‘artists’,
teams and systems that manage onboarding and paying artists, and so on.
Data mesh argues that the ownership and serving of the analytical data
should respect these domains. For example, the teams who manage
‘podcasts’, while providing APIs for releasing podcasts, should also be
responsible for providing historical data that represents ‘released
podcasts’ over time with other facts such as ‘listenership’ over time.
For a deeper dive into this principle see
Domain-oriented data
decomposition and ownership
.

Logical architecture: domain-oriented data and compute

To promote such decomposition, we need to
model an architecture that arranges the analytical data by domains.
In this architecture, the domain’s interface to the rest of
the organization not only includes the operational capabilities but also
access to the analytical data that the domain serves. For example,
‘podcasts’ domain provides operational APIs to ‘create a new
podcast episode’ but also an analytical data endpoint for retrieving
‘all podcast episodes data over the last <n> months’. This implies
that the architecture must remove any friction or coupling to let
domains serve their analytical data and release the code that computes
the data, independently of other domains. To scale, the architecture
must support autonomy of the domain teams with regard to the release and
deployment of their operational or analytical data systems.

The following example demonstrates the principle of domain oriented
data ownership. The diagrams are only logical representations and
exemplary. They aren’t intended to be complete.

Each domain can expose one or many operational APIs, as well as one or many
analytical data endpoints

Figure 4: Notation: domain, its analytical data
and operational capabilities

Naturally, each domain can have dependencies to other domains’ operational and
analytical data endpoints. In the following example, ‘podcasts’ domain consumes analytical data
of ‘users updates’ from the ‘users’ domain, so that it can provide a picture of the demographic of
podcast listeners through its ‘Podcast listeners demographic’ dataset.

Figure 5: Example: domain oriented ownership of analytical
data in addition to operational capabilities

Note: In the example, I have used an imperative language for accessing
the operational data or capabilities, such as ‘Pay artists’.
This is simply to emphasize the difference
between the intention of accessing operational data vs. analytical data.
I do recognize that in practice operational APIs are implemented
through a more declarative interface such as accessing a RESTful resource
or a GraphQL query.

Data as a product

One of the challenges of existing analytical data architectures is the
high friction and cost of discovering, understanding, trusting, and ultimately using
quality data
. If not addressed, this problem only exacerbates with data
mesh, as the number of places and teams who provide data – domains –
increases. This would be the consequence of our first principle of
decentralization.
Data as a product principle is designed to address the data quality and age-old
data silos
problem; or as Gartner calls it dark data
– “the information assets
organizations collect, process and store during regular business activities,
but generally fail to use for other purposes”. Analytical data provided by
the domains must be treated as a product, and the consumers of that data
should be treated as customers – happy and delighted customers.

The original article enumerates a list of
capabilities, including
discoverability, security, explorability, understandability, trustworthiness,
etc., that a data mesh implementation should support for a domain data
to be considered a product. It also details the roles such as
domain data product owner that
organizations must introduce, responsible for the objective measures that
ensure data is delivered as a product. These measures include data quality,
decreased lead time
of data consumption, and in general data user satisfaction
through net promoter score. Domain data
product owner must have a deep understanding of who the data users are, how do they
use the data,and what are the native methods that they are comfortable with consuming the data.
Such intimate knowledge of data users results in design of data product interfaces that meet their needs.
In reality, for majority of data products on the mesh, there a few conventional personas with
their unique tooling and expectations, data analysts and data scientists. All data products
can develop standardized interfaces to support them. The conversation between users of the data
and product owners is a necessary piece for establishing the interfaces of data products.

Each domain will include data product developer roles, responsible
for building, maintaining and serving the domain’s data products. Data product
developers will be working alongside other developers in the domain.
Each domain team may serve one or multiple data products. It’s
also possible to form new teams to serve data products that don’t naturally
fit into an existing operational domain.

Note: this is an inverted model of responsibility compared to past paradigms.
The accountability of data quality shifts upstream as close to the source of the data
as possible.

Logical architecture:data product the architectural quantum

Architecturally, to support data as a product that domains can
autonomously serve or consume, data mesh introduces the concept of data
product
as its architectural quantum.
Architectural quantum, as defined by
Evolutionary Architecture, is
the smallest unit of architecture that can be
independently deployed with high functional cohesion, and includes all the
structural elements required for its function.

Data product is the node on the mesh that encapsulates three structural components required
for its function, providing access to domain’s analytical data as a product.

  • Code: it includes (a) code for data pipelines responsible for
    consuming, transforming and serving upstream data – data received from domain’s
    operational system or an upstream data product; (b) code for APIs that provide
    access to data, semantic and syntax schema, observability metrics and other metadata;
    (c) code for enforcing traits such as access control policies,
    compliance, provenance, etc.
  • Data and Metadata: well that’s what we are all here for, the underlying
    analytical and historical data in a polyglot form.
    Depending on the nature of the domain data and its
    consumption models, data can be served as events, batch files, relational
    tables, graphs, etc., while maintaining the same semantic.
    For data to be usable there is an associated set of metadata including data
    computational documentation, semantic and syntax declaration,
    quality metrics, etc; metadata that is intrinsic to the data e.g. its semantic definition,
    and metadeta that communicates the traits used by
    computational governance to
    implement the expected behavior e.g. access control policies.
  • Infrastructure:
    The infrastructure component enables building, deploying and running the data product’s
    code, as well as storage and access to big data and metadata.

Figure 6: Data product components as one architectural quantum

The following example builds on the previous section, demonstrating the
data product as the architectural quantum. The diagram only includes
sample content and is not intended to be complete or include all design
and implementation details. While this is still a logical representation it
is getting closer to the physical implementation.

Figure 7:
Notation: domain, its (analytical) data product and operational system

Figure 8: Data products serving the
domain-oriented analytical data

Note: Data mesh model differs from the past paradigms where pipelines (code)
are managed as independent components from the data they produce;
and often infrastructure, like an instance of a warehouse or a lake storage account,
is shared among many datasets.
Data product is a composition of all components – code, data and infrastructure – at
the granularity of a domain’s bounded context.

Self-serve data platform

As you can imagine, to build, deploy, execute, monitor, and access a
humble hexagon – a data product – there is a fair bit of infrastructure
that needs to be provisioned and run; the skills needed to provision this
infrastructure is specialized and would be difficult to replicate in each
domain. Most importantly, the only way that teams can autonomously own
their data products is to have access to a high-level abstraction of
infrastructure that removes complexity and friction of provisioning and
managing the lifecycle of data
products. This calls for a new principle, Self-serve data infrastructure
as a platform to enable domain autonomy
.

The data platform can be considered an extension of the delivery
platform that already exists to run and monitor the services. However the
underlying technology stack to operate data products, today, looks very
different from delivery platform for services. This is simply due to divergence of
big data technology stacks from operational platforms. For example,
domain teams might be deploying their services as
Docker containers and the delivery platform uses Kubernetes for their
orchestration; However the neighboring data product might be running its
pipeline code as Spark jobs on a Databricks cluster. That requires
provisioning and connecting two very different sets of infrastructure,
that prior to data mesh did not require this level of interoperability and
interconnectivity. My personal hope is that we start seeing a convergence
of operational and data infrastructure where it makes sense. For example,
perhaps running Spark on the same orchestration system, e.g.
Kubernetes.

In reality, to make analytical data product development accessible to
generalist developers, to the existing profile of developers that domains
have, the self-serve platform needs to provide a new category of tools
and interfaces in addition to simplifying provisioning. A self-serve data
platform must create tooling that supports a domain data product
developer’s workflow of creating, maintaining and running data products
with less specialized knowledge that existing technologies assume;
self-serve infrastructure must include capabilities to lower the current
cost and specialization needed to build data products. The original
writeup includes a list of capabilities that a self-serve data platform
provides, including access to scalable polyglot data storage, data
products schema, data pipeline declaration and orchestration, data products lineage,
compute and data locality
, etc.

Logical architecture: a multi-plane data platform

The self-serve platform capabilities fall into multiple categories or
planes as called in the model. Note: A plane is representative of a level
of existence – integrated yet separate. Similar to physical and
consciousness planes, or control and data planes in networking. A plane is
neither a layer and nor implies a strong hierarchical access model.

Figure 9: Notation: A platform plane that provides
a number of related capabilities through self-serve interfaces

A self-serve platform can have multiple planes that each serve a
different profile of users. In the following example, lists three different
data platform planes:

  • Data infrastructure provisioning plane: supports the provisioning of
    the underlying infrastructure, required to run the components of a data
    product and the mesh of products. This includes provisioning of a
    distributed file storage, storage accounts, access control
    management system, the orchestration to run data products internal code,
    provisioning of a distributed query engine on a graph of data
    products, etc. I would expect that either other data platform planes
    or only advanced data product developers use this interface directly.
    This is a fairly
    low level data infrastructure lifecycle management plane.
  • Data product developer experience plane: this is the main interface
    that a typical data product developer uses.
    This interface abstracts many of
    the complexities of what entails to support the workflow of a data product developer.
    It provides a higher level of abstraction than the ‘provisioning plane’.
    It uses simple declarative interfaces to manage the lifecycle of a data product.
    It automatically implements the cross-cutting concerns that are
    defined as a set of standards and global conventions, applied to all data
    products and their interfaces.
  • Data mesh supervision plane: there are a set of capabilities that are
    best provided at the mesh level – a graph of connected data products –
    globally. While the implementation of each of these interfaces might rely
    on individual data products capabilities, it’s more convenient to provide
    these capabilities at the level of the mesh. For example, ability to
    discover data products for a particular use case, is best provided by
    search or browsing the mesh of data products; or correlating multiple data
    products to create a higher order insight, is best provided through
    execution of a data semantic query that can operate across
    multiple data products on the mesh.

The following model is only exemplary and is not intending to be
complete. While a hierarchy of planes is desirable, there is no strict
layering implied below.

Figure 10: Multiple planes of self-serve data platform
*DP stands for a data product

Federated computational governance

As you can see, data mesh follows a distributed system architecture;
a collection of independent data products, with independent lifecycle,
built and deployed by likely independent teams. However for the majority
of use cases, to get value in forms of higher order datasets, insights
or machine intelligence there is a need for these independent data
products to interoperate; to be able to correlate them, create unions,
find intersections, or perform other graphs or set operations on them at scale.
For any of these operations to be possible, a data mesh implementation
requires a governance model that embraces decentralization and domain
self-sovereignty, interoperability through global standardization, a dynamic
topology
and most importantly automated execution of decisions by
the platform
. I call this a federated computational governance. A
decision making model led by the federation of domain data product
owners and data platform product owners, with autonomy and domain-local
decision making power, while creating and adhering to a set of global
rules – rules applied to all data products and their interfaces – to
ensure a healthy and interoperable ecosystem. The group has a difficult
job: maintaining an equilibrium between centralization and
decentralization
; what decisions need to be localized to each domain and
what decisions should be made globally for all domains. Ultimately
global decisions have one purpose, creating interoperability and
a compounding network effect through discovery and composition
of data products.

The priorities of the governance in data mesh are different from
traditional governance of analytical data management systems. While they
both ultimately set out to get value from data, traditional data
governance attempts to achieve that through centralization of decision
making, and establishing global canonical representation of data with
minimal support for change. Data mesh’s federated computational governance,
in contrast, embraces change and multiple interpretive contexts.

Placing a system in a straitjacket of constancy can cause fragility to evolve.

— C.S. Holling, ecologist

Logical architecture: computational policies embedded in the mesh

A supportive organizational structure, incentive model and
architecture is necessary for the federated governance model to
function: to arrive at global decisions and standards for
interoperability, while respecting autonomy of local domains, and
implement global policies effectively.

Figure 11: Notation: federated computational
governance model

As mentioned earlier, striking a balance between what shall be
standardized globally, implemented and enforced by the platform for all
domains and their data products, and what shall be left to the domains
to decide, is an art. For instance the domain data
model is a concern that should be localized to a domain who is most
intimately familiar with it. For example, how the semantic and syntax of
‘podcast audienceship’ data model is defined must be left to the
‘podcast domain’ team. However in contrast, the decision around
how to identify a ‘podcast listener’ is a global concern. A podcast listener
is a member of the population of ‘users’ – its
upstream bounded context – who
can cross the boundary of domains and be found in other domains such as ‘users play streams’.
The unified identification allows correlating information about ‘users’
who are both ‘podcast listeners’ and ‘steam listeners’.

The following is an example of elements involved in the data mesh
governance model. It’s not a comprehensive example and only
demonstrative of concerns relevant at the global level.

Figure 12: : Example of elements of a
federated computational governance: teams, incentives, automated implementation,
and globally standardized aspects of data mesh

Many practices of pre-data-mesh governance, as a centralized
function, are no longer applicable to the data mesh paradigm. For example,
the past emphasis on certification of golden datasets – the datasets
that have gone through a centralized process of quality control and
certification and marked as trustworthy – as a central
function of governance is not longer relevant. This had
had stemmed from the fact that in the previous data management
paradigms, data – in whatever quality and format – gets extracted from
operational domain’s databases and gets centrally stored in a warehouse
or a lake that now requires a centralized team to apply cleansing,
harmonization and encryption processes to it; often under the
custodianship of a centralized governance group. Data mesh completely
decentralizes this concern. A domain dataset only
becomes a data product after it locally, within the domain, goes
through the process of quality assurance according to the
expected data product quality metrics and the global standardization
rules. The domain data product owners are best placed to decide how to
measure their domain’s data quality knowing the details of domain
operations producing the data in the first place. Despite such localized
decision making and autonomy, they need to comply with the modeling of
quality and specification of SLOs based on a global standard, defined by
the global federated governance team, and automated by the platform.

The following table shows the contrast between centralized (data
lake, data warehouse) model of data governance, and data mesh.

Pre data mesh governance aspectData mesh governance aspect
Centralized teamFederated team
Responsible for data qualityResponsible for defining how to model what constitutes
quality
Responsible for data securityResponsible for defining aspects of data security i.e. data
sensitivity levels for the platform to build in and monitor
automatically
Responsible for complying with regulationResponsible for defining the regulation requirements for the
platform to build in and monitor automatically
Centralized custodianship of dataFederated custodianship of data by domains
Responsible for global canonical data modelingResponsible for modeling polysemes – data elements that
cross the boundaries of multiple domains
Team is independent from domainsTeam is made of domains representatives
Aiming for a well defined static structure of dataAiming for enabling effective mesh operation embracing a
continuously changing and a dynamic topology of the mesh
Centralized technology used by monolithic lake/warehouseSelf-serve platform technologies used by each domain
Measure success based on number or volume of governed data (tables)Measure success based on the network effect – the
connections representing the consumption of data on the
mesh
Manual process with human interventionAutomated processes implemented by the platform
Prevent errorDetect error and recover through platform’s automated
processing

Principles Summary and the high level logical architecture

Let’s bring it all together, we discussed four principles underpinning
data mesh:

Domain-oriented decentralized data ownership and architectureSo that the ecosystem creating and consuming data can scale out
as the number of sources of data, number of use cases, and diversity
of access models to the data increases;
simply increase the autonomous nodes on the mesh.
Data as a productSo that data users can easily discover, understand and securely
use high quality data with a delightful experience; data that is
distributed across many domains.
Self-serve data infrastructure as a platformSo that the domain teams can create and consume data products
autonomously using the platform abstractions, hiding the complexity
of building, executing and maintaining secure and interoperable data
products.
Federated computational governanceSo that data users can get value from aggregation and
correlation of independent data products – the mesh is behaving as
an ecosystem following global interoperability standards; standards
that are baked computationally into the platform.

These principles drive a logical architectural model that while brings
analytical data and operational data closer together under the same domain, it
respects their underpinning technical differences. Such differences include
where the analytical data might be hosted, different compute technologies for
processing operational vs. analytical services, different ways of querying and
accessing the data, etc.

Figure 13: Logical architecture of data mesh approach

I hope by this point, we have now established a common language and a logical
mental model that we can collectively take forward to detail the blueprint
of the components of the mesh, such as the data product, the platform, and
the required standardizations.



سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : رمزگشایی میخی ، یکی از اولین اشکال نوشتن


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

این زبان نیست دقیقاً الفبا نیست. اما اگر می خواهید اصل را بخوانید حماسه گیلگمش ، یا سوابق تجاری سومریان باستان را مطالعه کنید ، میخی تنها بازی در شهر است.

سیستم باستانی نوشتن یکی است ، اگر نباشد ، قدیمی ترین در حدود 3500-3000 سال قبل از میلاد توسط سومری ها اختراع شد و بیش از 3000 سال در منطقه مورد استفاده قرار گرفت. نوشتن تنها نوآوری این فرهنگ نبود. آنها همچنین گاری های چرخدار جهان ، نجوم ، یک سیستم اعداد ، ساعت 60 دقیقه ای ، نقشه ها ، آبیاری و حماسه گیلگمش، که اولین اثر مکتوب ادبیات بود.

سومر ، بدون شک اولین تمدن جهان ، از گروهی از دولت شهرها تشکیل شده بود. این شهرهای واقع در بین النهرین ، یعنی عراق فعلی ، درگیر تجارت و گاه جنگ با یکدیگر هستند. آنها برای ثبت معاملات مالی خود به یک سیستم نیاز داشتند و میخی کار را انجام می داد. بنابراین ، جای تعجب نیست که اولین نمونه های میخی فروش یا انتقال کالاهایی مانند غلات یا منسوجات ، یا تخصیص لوازم را نشان می دهد.

قرص اصلی

نمادهای میخی با یک قلم نوک تیز روی لوح های سفالی مرطوب ، معمولاً مستطیلی و به اندازه یک دفترچه یادداشت کوچک یا آیفون ، خراشیده می شدند. سپس قرص ها را در معرض آفتاب پخت و یا در کوره خشک کردند.

کلمه میخی از یک کلمه لاتین می آید cuneus ، به معنی “گوه ای شکل” است. دلیل این امر این است که ، اگرچه این نمادها در ابتدا تصویری بودند ، اما به زودی کاملاً سبک شدند و در واقع از آرایش های مختلفی از خطوط و مثلث ها یا گوه ها تشکیل شده اند. میخی به جای استفاده از یک عکس گاو برای نشان دادن یک گاو ، از نمادی استفاده می کرد که به نوعی یک تصویر برهنه از یک گاو بود. این کار بسیار کارآمدتر شد. با گذشت زمان ، نمادهایی برای اسامی انتزاعی مانند عشق یا ترس و بعداً صفت معرفی شدند.

سرانجام نمادها حتی بیشتر انتزاعی شدند – دیگر به عنوان گاو قابل تشخیص نیستند – و به جای استفاده از یک نماد منحصر به فرد برای هر کلمه ، به سیستمی برای نمایش اصوات گفتاری یا هجاها تبدیل شدند. در این مرحله ، سیستم می تواند به راحتی زبان گفتاری را رونویسی کند. این امر نه تنها نگه داشتن کتاب های حساب ، بلکه ضبط نامه ها ، داستان ها ، آهنگ ها و شعرها – و همچنین متون مدرسه و آثار ریاضی را ممکن می کرد.

یکی از مزایای خط میخی این است که می تواند زبانهای مختلفی را نشان دهد ، مانند الفبایی که می تواند مثلاً انگلیسی ، آلمانی ، اسپانیایی و بسیاری از زبانهای دیگر را بنویسد. میخی برای نوشتن حداقل به دوازده زبان علاوه بر زبان سومری از جمله اکدی ، بابلی ، آشوری ، هیتی و فارسی مورد استفاده قرار گرفت. و مانند الفبای امروز ما ، با داشتن آلمانی Eszett یا “double-S” و اسپانیایی شامل “double-L” ، تغییرات کمی در میخی از زبان به زبان دیگر وجود دارد.

در انتظار ترجمه

هنگامی که باستان شناسان اروپایی برای اولین بار در قرن نوزدهم کاوش در خاورمیانه را آغاز کردند ، نمونه های برجای مانده از خط میخی را یافتند. اما فهمیدن معنی آن چالش بود. برای یادگیری خط میخی ، ابتدا باید زبان سومری را یاد بگیرید. این کار بزرگی نیست ، به این دلیل که به نظر بسیاری از محققان زبان سومری یک زبان منزوی است ، به این معنی که این زبان با زبان شناخته شده دیگری ارتباط ندارد. با این وجود ، در اواخر دهه 1850 ، دانشمندان عمدتاً خط میخی شکسته بودند ، گرچه حتی اکنون نیز تکه تکه هایی وجود دارد که هنوز دانشمندان نمی فهمند. امروزه کسانی که می توانند خط میخی را بخوانند بسیار اندک هستند و اکثریت قریب به اتفاق متون میخی ترجمه نشده باقی مانده اند.

درون موزه بریتانیا - Shutterstock

(اعتبار: Piotr Wawrzyniuk / Shutterstock)

ایروینگ فینکل یکی از برجسته ترین متخصصان خط میخی و متصدی موزه بریتانیا ، خانه بزرگترین مجموعه خط میخی ، با 130 هزار قرص است. نمونه مورد علاقه فینکل در نوشتن باستان ، لوحی است که حاوی دستورالعمل های The Royal Game of Ur ، یک بازی روی صفحه است که در بین النهرین باستان محبوب بود. امروزه این بازی مانند شطرنج یا تخته نرد احتمالاً در میخانه ها و کاخ ها انجام می شد. فینکل قوانین را ترجمه کرد. اگر می خواهید در یک بازی 4500 ساله تلاش کنید ، می توانید قوانین را پیدا کنید اینجا.

و آن 130000 لوح خط میخی در موزه بریتانیا؟ آنها با صبر و حوصله منتظرند دانشمندان بیایند آنها را بخوانند و بقیه ما را از گفتن آنها مطلع کنند شاید حماسه دیگری مثل آن گیلگمش؟ یا شاید یک بازی تخته ای جالب دیگر؟ اگر علاقه ای به گذراندن شش تا هشت سال مطالعه فشرده لازم برای تسلط بر خط میخی ندارید ، باز هم می توانید نشان خود را در این سیستم نوشتاری باستانی بگذارید. برو به وب سایت موزه پن و نمایشگاه تعاملی آنها را امتحان کنید که به شما امکان می دهد نام خود را با خط میخی امضا کنید.


سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر

شرط بندی فوتبال : با استفاده از این ابزار رتبه بندی SEO ، بازاریابی دیجیتال خود را با بودجه بهبود بخشید


سایت شرط بندی فوتبال
بهترین سایت شرط بندی
سایت شرط بندی معتبر فوتبال

RankTools به شما کمک می کند تا رتبه بندی جستجوی سایت خود را افزایش دهید.

15 اکتبر 2020

2 دقیقه خواندن

افشای اطلاعات: هدف ما ارائه محصولات و خدماتی است که فکر می کنیم برای شما جالب و مفید باشد. اگر آنها را خریداری کنید ، کارآفرین ممکن است سهم کمی از درآمد حاصل از فروش را از شرکای تجاری ما بدست آورد.


بازاریابی دیجیتال می تواند سریع گران شود ، که برای کارآفرینانی که سعی می کنند در یک اقتصاد سخت هزینه های خود را کاهش دهند ایده آل نیست. اما برای دستیابی به مشتریان جدید نیازی به اتکا به روش های پرداختی ندارید. بهینه سازی موتور جستجو (سئو) می تواند یک روش عالی برای افزایش بازدید از وب سایت شما بدون صرف یک سکه زیبا باشد.

اما اگر نمی دانید چگونه یک استراتژی SEO را پیاده سازی کنید ، ممکن است به کمی کمک نیاز داشته باشید. ابزار SEO RankTools می تواند این کار را انجام دهد

RankTools ابزاری برای جستجوگرها است که اطلاعات سایت شما را تجزیه و تحلیل می کند و گزارش های کاملی را ارائه می دهد تا به شما نشان دهد چه کاری درست انجام می دهید و چگونه می توانید سئو سایت خود را بهبود ببخشید. این ابزار داده های الکسا ، داده های شبکه های اجتماعی ، فهرست موتور جستجو ، رتبه صفحه Google ، تجزیه و تحلیل IP ، بررسی بدافزار و موارد دیگر را برای کمک به شما در تدوین استراتژی SEO قوی تر اندازه گیری می کند. بعلاوه ، همچنین رقبا را تجزیه و تحلیل می کند تا بتوانید ببینید که آنها چه کاری انجام می دهند یا اینکه در چه موقعیت هایی می توانید بالاتر از آنها باشید.

علاوه بر گزارش ، RankTools بیش از 20 مورد نیز ارائه می دهد ابزارهای جستجوگرها مانند تجزیه و تحلیل پیوند ، تجزیه و تحلیل موقعیت کلمات کلیدی ، بررسی وضعیت صفحه ، ایجاد بک لینک ، اسکرابر Google Adword و موارد دیگر برای قرار گرفتن در موقعیت بهتر سایت برای برجسته شدن در نتایج جستجو. همچنین می توانید عملکرد RankTools را با استفاده از API بومی آن با یک برنامه یا ابزارک دیگر ادغام کنید و اجرای استراتژی SEO خود را در گردش کار موجود خود آسان کنید.

بدون هیچ گونه تخصص سئو ، استراتژی SEO خود را از همان ابتدا بسازید. در حال حاضر ، شما می توانید اشتراک مادام العمر در RankTools SEO Tool را فقط با 29.99 دلار دریافت کنید. همچنین می توانید برنامه حرفه ای با 39.99 دلار و برنامه آژانس با 49.99 دلار.


سایت شرط بندی
سایت پیشبینی
سایت شرط بندی معتبر